▶ 안전·보안위원회 구성
▶ 새 AI 모델 훈련도 발표
챗GPT 개발사 오픈AI는 28일 생성형 AI 관련 기술 개발 과정에 안전 및 윤리 문제를 점검하기 위해 ‘새로운 안전·보안위원회’를 구성했다고 밝혔다.
오픈AI는 블로그를 통해 이같이 전하고 브렛 테일러 이사회 의장과 샘 올트먼 최고경영자(CEO), 애덤 단젤로 이사 등이 위원회를 이끌 것이라고 설명했다. 또 새 위원회의 첫 번째 과제는 “오픈AI의 프로세스와 안전장치를 평가하고 더욱 발전시키는 것”이라고 강조했다.
오픈AI의 새로운 안전·보안위원회 구성은 기존 안전팀이 해체되고, 새 AI 모델 ‘GPT-4o’(포오)의 음성 모방 논란이 제기된 가운데 나왔다.
오픈AI는 앞서 AI의 장기적인 위험을 연구하는 슈퍼얼라이먼트(superalignment) 팀 일부를 다른 팀으로 재배치하는 등 안전팀을 해체한 것으로 알려졌다. 이 팀을 이끌었던 오픈AI 수석과학자 일리야 수츠케버와 또 다른 임원인 얀 레이케가 회사를 떠났다.
레이케는 “인간보다 더 똑똑한 기계를 만드는 것은 본질적으로 위험한 노력”이라며 “오픈AI는 인류를 대표해 엄청난 책임을 지고 있지만, 지난 몇 년간 안전 문화와 프로세스는 제품 뒷전으로 밀려났다”고 비판하기도 했다. 오픈AI는 또 지난 12일 선보였던 새 AI 모델 GPT-4o의 음성이 영화배우 스칼릿 조핸슨을 도용했다는 논란에 휩싸여있다.
‘스카이’(Sky)라고 하는 이 모델의 음성이 영화 ‘그녀’ 속 AI 목소리의 주인공인 스칼릿 조핸슨과 매우 유사하다는 지적이 제기된 것이다.
조핸슨이 자신의 목소리 사용을 허락하지 않았는데 오픈AI가 유사한 목소리를 사용했다며 법적 대응을 시사했고, 오픈AI는 이 음성 사용을 중단하기도 했다.
오픈AI는 이와 함께 AI 모델에 대한 훈련을 시작했다고 밝혔다. 오픈AI는 “다음 프런티어 모델을 훈련하기 시작했다”며 “그 결과물이 범용인공지능(AGI)으로 가는 다음 단계의 역량을 이끌 것으로 기대한다”고 밝혔다.
AGI는 사람과 유사한 수준 또는 그 이상의 지능을 갖춘 AI를 말한다.
올트먼 CEO는 “우리는 AGI를 만들고 싶다”며 “(이를 위해) 우리 스스로 뭔가를 구축하든, 파트너와 함께하든 무엇이든 다 할 것”이라고 밝힌 바 있다. 오픈AI는 더 이상의 구체적인 언급은 하지 않았다.
댓글 안에 당신의 성숙함도 담아 주세요.
'오늘의 한마디'는 기사에 대하여 자신의 생각을 말하고 남의 생각을 들으며 서로 다양한 의견을 나누는 공간입니다. 그러나 간혹 불건전한 내용을 올리시는 분들이 계셔서 건전한 인터넷문화 정착을 위해 아래와 같은 운영원칙을 적용합니다.
자체 모니터링을 통해 아래에 해당하는 내용이 포함된 댓글이 발견되면 예고없이 삭제 조치를 하겠습니다.
불건전한 댓글을 올리거나, 이름에 비속어 및 상대방의 불쾌감을 주는 단어를 사용, 유명인 또는 특정 일반인을 사칭하는 경우 이용에 대한 차단 제재를 받을 수 있습니다. 차단될 경우, 일주일간 댓글을 달수 없게 됩니다.
명예훼손, 개인정보 유출, 욕설 등 법률에 위반되는 댓글은 관계 법령에 의거 민형사상 처벌을 받을 수 있으니 이용에 주의를 부탁드립니다.
Close
x