▶ 지난 7월 이후 공석…장기위험 다루는 ‘초정렬’ 팀은 지난해 해체

샘 올트먼 오픈AI 최고경영자(CEO). [로이터]
챗GPT 등 인공지능(AI) 챗봇이 정신건강 관련 위험을 초래한다는 비판에 직면한 오픈AI가 AI의 잠재적 위험에 대비하는 책임자를 다시 모집한다.
샘 올트먼 오픈AI 최고경영자(CEO)는 사회관계망서비스(SNS) 엑스(X)에 현재 공석인 '준비 책임자'(Head of Preparedness)를 모집하고 있다고 밝혔다고 정보기술(IT) 전문매체 테크크런치가 28일 보도했다.
올트먼 CEO는 "2025년에는 AI 모델이 정신건강에 미치는 잠재적 영향을 미리 경험했다"며 또 "모델이 컴퓨터 보안 분야에서 매우 뛰어난 능력을 발휘해 중대한 취약점을 찾아내기 시작하는 모습을 목격하고 있다"고 말했다.
그는 AI 모델의 능력이 어떻게 악용될 수 있는지 이해하고 이를 정교하게 측정하는 능력이 필요한 시대가 됐다고 강조했다.
그는 준비 책임자 직무에 대해 "중요한 시기에 핵심적인 역할"이라며 "스트레스가 따르는 직무이며 (부임) 즉시 깊은 난제 속으로 뛰어들게 될 것"이라고 언급했다.
오픈AI가 이처럼 AI의 위험 대비에 다시금 나선 것은 챗GPT 이용자 일부가 망상에 시달리다 극단적 선택을 해 유족들이 여러 건의 소송을 제기했기 때문으로 풀이된다.
오픈AI는 당초 AI의 당면한 위험에 대비하는 '준비' 팀과 장기적 위험을 다루는 '초정렬'(Superalignment) 팀을 운영해왔다.
그러나 올트먼 CEO를 비롯한 경영진은 지난해 5월 GPT-4o를 출시하는 과정에서 모델의 빠른 공개를 위해 안전 관련 검증을 최소화하라고 지시해 이들 팀의 반발을 샀다.
이후 준비 팀을 이끄는 책임자는 지난해 7월부터 올해 7월까지 1년간 직무 재배치나 퇴사 등을 통해 세 차례 변경된 끝에 현재 공석으로 남아있다.
오픈AI 공동창업자인 일리야 수츠케버 수석과학자가 이끌던 초정렬 팀은 GPT-4o 출시 직후 수츠케버가 퇴사하면서 다른 팀으로 흡수되는 등 지난해 5월 사실상 해체됐다.
이렇게 안전 검증을 소홀히 한 GPT-4o는 실제로 청소년 등 일부 이용자들에 정신건강 관련 문제를 일으키고 있다는 비판을 받고 있다.
오픈AI는 이와 같은 비판을 의식한 듯 최근 나이 예측 모델을 도입해 이용자가 미성년자로 판별되면 자동으로 '18세 미만' 환경을 강제 적용했다.
오픈AI는 챗봇이 이용자에게 지나치게 동조하는 것이 중독을 유발한다는 주장이 제기되자 '친절함'과 '열정적' 정도를 직접 조절할 수 있는 기능을 추가하기도 했다.
<연합뉴스>
댓글 안에 당신의 성숙함도 담아 주세요.
'오늘의 한마디'는 기사에 대하여 자신의 생각을 말하고 남의 생각을 들으며 서로 다양한 의견을 나누는 공간입니다. 그러나 간혹 불건전한 내용을 올리시는 분들이 계셔서 건전한 인터넷문화 정착을 위해 아래와 같은 운영원칙을 적용합니다.
자체 모니터링을 통해 아래에 해당하는 내용이 포함된 댓글이 발견되면 예고없이 삭제 조치를 하겠습니다.
불건전한 댓글을 올리거나, 이름에 비속어 및 상대방의 불쾌감을 주는 단어를 사용, 유명인 또는 특정 일반인을 사칭하는 경우 이용에 대한 차단 제재를 받을 수 있습니다. 차단될 경우, 일주일간 댓글을 달수 없게 됩니다.
명예훼손, 개인정보 유출, 욕설 등 법률에 위반되는 댓글은 관계 법령에 의거 민형사상 처벌을 받을 수 있으니 이용에 주의를 부탁드립니다.
Close
x