▶ 美 연구팀 “의료전문가, 질문 79%서 챗GPT 답변 선호…답변 질도 챗GPT가 높아”
챗GPT 같은 생성형 인공지능(AI) 챗봇이 의학에서 어떻게 활용될지에 대한 관심이 커지는 가운데 챗GPT가 내과 환자의 질문에 대한 답변에서 품질과 공감도 모두 의사를 뛰어넘었다는 연구 결과가 나왔다.
샌디에이고 캘리포니아대(UCSD) 퀄컴연구소 존 W. 에이어스 교수팀은 29일 동일한 내과 분야 질문에 대한 의사와 챗GPT의 답변을 의료전문가들이 평가하는 실험에서 답변의 질과 공감도 모두 챗GPT가 훨씬 우수한 것으로 평가됐다고 밝혔다.
이 연구 결과는 미국의학협회(JAMA) 학술지 'JAMA 내과학'(JAMA Internal Medicine)에 게재됐다.
연구팀은 미국 온라인 커뮤니티 레딧(Reddit)에서 의료 관련 질문 및 검증된 의료 전문가의 답변을 제공하는 플랫폼인 '애스크닥스'(AskDocs)에서 내과 분야 환자 질문과 검증된 의사의 답변 195개를 무작위로 선택하고 같은 질문에 대한 챗GPT 답변을 3명의 전문가에게 제공한 뒤 비교 평가하게 했다.
애스크닥스는 45만2천여 회원이 활동하는 사이버 공간으로 누구나 질문하고 답할 수 있지만 운영자는 전문가의 자격 증명을 확인해 답변에 이를 표시한다.
연구팀은 평가를 맡은 전문가 패널이 답변 출처가 의사인지 챗GPT인지 알 수 없도록 블라인드 처리했고 답변의 품질과 공감도를 평가하도록 했다.
연구팀은 챗GPT가 환자들이 의사에게 하는 질문에 정확하게 답할 수 있는지, 답할 수 있다면 AI를 의료시스템에 통합해 환자 질문에 대한 의사 답변을 개선하고 의사 업무 부담을 줄여줄 수 있을지 모색하는 게 이 연구의 목적이라고 말했다.
평가 결과 의료 전문가들은 전체 답변의 79%에서 의사 응답보다 챗GPT 응답을 선호하는 것으로 나타났으며, 품질도 챗GPT 응답이 훨씬 높은 것으로 평가했다.
응답의 품질에 대해 챗GPT 답변은 78.5%가 '좋음' 또는 '매우 좋음' 평가를 받았으나 의사 답변은 22.1%만 '좋음'과 '매우 좋음'으로 평가됐다.
또 답변에 대한 의료 전문가들의 공감 정도 평가에서는 챗GPT 응답의 45.1%가 '공감한다' 또는 '매우 공감한다'는 평가를 받았지만 의사의 답변은 4.6%만이 '공감' 또는 '매우 공감' 판정을 받았다.
논문 공동 저자인 애덤 폴리악 교수는 "이 연구는 챗GPT와 의사를 비교했지만, 궁극적인 해법은 의사를 완전히 쫓아내는 것은 아니다"라며 "대신 의사가 챗GPT를 활용하는 것이 더 나은 공감 치료를 위한 해답이 될 것"이라고 지적했다.
에이어스 교수는 "AI가 의사를 대체하지는 못하겠지만 챗GPT 같은 기술과 협력하면 의학에 혁명을 일으킬 수 있을 것"이라면서 "AI를 통해 의료 서비스를 개선할 기회는 엄청나며 AI 증강 치료가 의학의 미래가 될 것"이라고 말했다.
UCSD 의료부문 최고 책임자인 크리스토퍼 롱허스트 박사는 "이 결과는 AI 비서가 실제 의료서비스 제공 문제 해결에 어떻게 기여할 수 있을지 보여주는 첫 연구 사례"라며 "UCSD는 챗GPT 같은 도구가 환자 맞춤형 조언을 작성하고 이를 의료진이 검토하는 프로세스 마련에 착수했다"고 밝혔다.
<연합뉴스>
댓글 안에 당신의 성숙함도 담아 주세요.
'오늘의 한마디'는 기사에 대하여 자신의 생각을 말하고 남의 생각을 들으며 서로 다양한 의견을 나누는 공간입니다. 그러나 간혹 불건전한 내용을 올리시는 분들이 계셔서 건전한 인터넷문화 정착을 위해 아래와 같은 운영원칙을 적용합니다.
자체 모니터링을 통해 아래에 해당하는 내용이 포함된 댓글이 발견되면 예고없이 삭제 조치를 하겠습니다.
불건전한 댓글을 올리거나, 이름에 비속어 및 상대방의 불쾌감을 주는 단어를 사용, 유명인 또는 특정 일반인을 사칭하는 경우 이용에 대한 차단 제재를 받을 수 있습니다. 차단될 경우, 일주일간 댓글을 달수 없게 됩니다.
명예훼손, 개인정보 유출, 욕설 등 법률에 위반되는 댓글은 관계 법령에 의거 민형사상 처벌을 받을 수 있으니 이용에 주의를 부탁드립니다.
Close
x총 2건의 의견이 있습니다.
chat gpt 로 의료비
ChatGPT 이물건은 최소한 돈에 환장 하지않아서 다행이네