
[로이터=사진제공]
인공지능(AI) 기술의 급속한 발전과 함께 위험성에 대한 우려가 제기되는 가운데 챗GPT 개발사 오픈AI가 AI가 가져올 위험에 대비하기 위한 조직을 신설했다.
오픈AI는 AI의 '재앙적 위험'을 줄이기 위해 자체 '대비팀'(preparedness team)을 구축했다고 27일 밝혔다.
이 조직은 AI가 야기할 수 있는 "치명적인 위험을 추적, 평가, 예측하고 이를 보호하는 것을 목표로 할 것"이라고 오픈AI는 설명했다.
또 AI가 핵무기 등의 무기에 사용되는 '화학적, 생물학적, 방사능적 위협'과 함께 AI가 스스로 복제하는 위험인 '자율 복제'에도 대응한다고 덧붙였다.
오픈AI는 "우리는 현재 가장 진보된 기존 모델의 기능을 뛰어넘는 프런티어 AI 모델이 인류에게 혜택을 줄 수 있는 잠재력이 있다고 믿는다"면서도 "하지만 이는 점점 더 심각한 위험을 초래할 수도 있다"고 우려했다.
이어 "이런 위험한 상황을 피하려면 새로운 AI 시스템의 위험한 기능을 예측하고 사람들을 보호할 수 있는 뼈대를 구축해야 한다"며 "이것이 새로운 팀의 임무 중 하나가 될 것"이라고 말했다.
이 조직은 현재 매사추세츠공대(MIT)의 머신러닝(기계학습) 센터장을 맡고 있는 알렉산더 매드리가 이끌게 된다. 조직 규모는 알려지지 않았다.
오픈AI의 최고경영자(CEO)인 샘 올트먼은 앞서 AI로 인한 재앙 가능성을 경고한 바 있다.
그는 지난 5월 다른 AI 연구자들과 함께 "AI로 인한 위험을 완화하는 것이 글로벌 우선순위가 돼야 한다"는 성명을 발표하고 인류의 절멸 가능성까지 언급하며 AI 기술 통제 필요성을 주장한 바 있다.
또 각국 정부가 AI를 핵무기처럼 "심각하게" 다뤄야 한다고 강조하기도 했다.
<연합뉴스>
댓글 안에 당신의 성숙함도 담아 주세요.
'오늘의 한마디'는 기사에 대하여 자신의 생각을 말하고 남의 생각을 들으며 서로 다양한 의견을 나누는 공간입니다. 그러나 간혹 불건전한 내용을 올리시는 분들이 계셔서 건전한 인터넷문화 정착을 위해 아래와 같은 운영원칙을 적용합니다.
자체 모니터링을 통해 아래에 해당하는 내용이 포함된 댓글이 발견되면 예고없이 삭제 조치를 하겠습니다.
불건전한 댓글을 올리거나, 이름에 비속어 및 상대방의 불쾌감을 주는 단어를 사용, 유명인 또는 특정 일반인을 사칭하는 경우 이용에 대한 차단 제재를 받을 수 있습니다. 차단될 경우, 일주일간 댓글을 달수 없게 됩니다.
명예훼손, 개인정보 유출, 욕설 등 법률에 위반되는 댓글은 관계 법령에 의거 민형사상 처벌을 받을 수 있으니 이용에 주의를 부탁드립니다.
Close
x