"그 의사, AI였다고?" 진단서 인공지능이 썼는데 안 알려 발칵[AI헬스...
페이지 정보
본문
[이데일리 김승권 기자] 미국에서 인공지능AI을 활용한 의료 진단서 작성 여부를 환자에게 고지하는 문제가 ‘뜨거운 감자’로 떠올랐다. 원격의료가 활성화된 미국에서는 비대면 의사 진료가 활발한데 의사 답변을 인공지능AI이 생성하고 이를 환자에게 알리지 않는 경우가 많아 논란이 되고 있는 것이다. 한국에서도 향후 원격의료에 대한 규제가 풀리면 같은 문제가 발생할 수 있어 귀추가 주목된다.
뉴욕타임스는 지난 24일현지시각 미국 병원에서 널리 사용되는 의료 관련 서비스인 ‘마이차트MyChart’의 답변을 인간 의사가 아닌 AI가 작성하는 사례가 많은데 이를 고지하지 않는 것은 문제의 소지가 있다고 보도했다.
마이차트는 미국 의료 플랫폼 기업 ‘에픽 시스템스’가 개발한 애플리케이션앱이다. 미국 병원의 약 40%가 해당 앱을 사용하며 미국 의사 1만5000여 명이 마이차트에서 제공하는 답변 가운데 3분의 1 정도가 AI 답변으로 추정된다.
작동 방식은 다음과 같다. 의료 전문가가 답변하기 위해 환자의 질문을 열면 빈 화면 대신 의사의 목소리로 미리 작성된 답변을 볼 수 있다. AI는 질문, 환자의 의료 기록 및 환자의 약 목록을 기반으로 응답을 작성한다. 이 답변을 의사는 그대로 받아들이거나, 편집하거나, 완전히 버릴 수 있다. 이후 이를 마이차트에 업로드하고 환자에게 전달된다.
보도에 따르면 스탠퍼드 헬스케어, 뉴욕대 랑곤헬스 등의 병원은 AI가 의사 답변의 초안 작업을 한다는 사실을 알리지 않고 있다. 뉴욕대 랑곤헬스 관계자는 NYT에 “의사 메시지에 AI 제공 콘텐츠가 포함돼 있다는 사실을 환자에게 알리면, 의사가 확인한 메시지임에도 의료 조언으로서의 가치가 떨어질 수 있다”고 했다.
MyChart은 ChatGPT를 구동하는 것과 동일한 기술인 GPT-4를 사용한다. 이는 의료 개인 정보 보호법을 준수하는 특정 버전이지만 환자에게 이를 사용하는 것은 권고되고 있다.
권고의 문제 말고 다른 문제도 존재한다. AI가 오류를 범하는 것을 의사가 체크하지 않고 문제가 있는 진단서를 그대로 보낼 수도 있다는 것이다. 이는 중대한 의학적 영향을 미칠 수 있다. 개인정보 보호 문제도 존재한다. AI 챗봇 사용 시 환자 정보가 제3자에게 노출될 수 있는 우려도 있다.
이러한 논란에도 불구하고, AI 기술은 의료 분야에서 계속 확대될 것으로 예상된다. 따라서 환자 정보 보호, 의료 정확성 확보, 윤리적 사용에 대한 명확한 가이드라인 마련이 필요할 것으로 관측되고 있다.
▶ 관련기사 ◀
☞ 영화 공공의적 모티브된 최악의 존속살해[그해 오늘]
☞ ‘4분의 기적 버스서 심정지로 고꾸라진 男, 대학생들이 살렸다
☞ "술만 마시면 돌변..폭력 남편 피해 아이들과 도망친 게 범죄인가요"
☞ "임영웅과 얘기하는 꿈꿔"...20억 복권 당첨으로 고민 해결
☞ 공룡 美남 돌아온 김우빈, 황금비율 시계는[누구템]
김승권 peace@
뉴욕타임스는 지난 24일현지시각 미국 병원에서 널리 사용되는 의료 관련 서비스인 ‘마이차트MyChart’의 답변을 인간 의사가 아닌 AI가 작성하는 사례가 많은데 이를 고지하지 않는 것은 문제의 소지가 있다고 보도했다.
마이차트는 미국 의료 플랫폼 기업 ‘에픽 시스템스’가 개발한 애플리케이션앱이다. 미국 병원의 약 40%가 해당 앱을 사용하며 미국 의사 1만5000여 명이 마이차트에서 제공하는 답변 가운데 3분의 1 정도가 AI 답변으로 추정된다.
작동 방식은 다음과 같다. 의료 전문가가 답변하기 위해 환자의 질문을 열면 빈 화면 대신 의사의 목소리로 미리 작성된 답변을 볼 수 있다. AI는 질문, 환자의 의료 기록 및 환자의 약 목록을 기반으로 응답을 작성한다. 이 답변을 의사는 그대로 받아들이거나, 편집하거나, 완전히 버릴 수 있다. 이후 이를 마이차트에 업로드하고 환자에게 전달된다.
|
MyChart은 ChatGPT를 구동하는 것과 동일한 기술인 GPT-4를 사용한다. 이는 의료 개인 정보 보호법을 준수하는 특정 버전이지만 환자에게 이를 사용하는 것은 권고되고 있다.
권고의 문제 말고 다른 문제도 존재한다. AI가 오류를 범하는 것을 의사가 체크하지 않고 문제가 있는 진단서를 그대로 보낼 수도 있다는 것이다. 이는 중대한 의학적 영향을 미칠 수 있다. 개인정보 보호 문제도 존재한다. AI 챗봇 사용 시 환자 정보가 제3자에게 노출될 수 있는 우려도 있다.
이러한 논란에도 불구하고, AI 기술은 의료 분야에서 계속 확대될 것으로 예상된다. 따라서 환자 정보 보호, 의료 정확성 확보, 윤리적 사용에 대한 명확한 가이드라인 마련이 필요할 것으로 관측되고 있다.
▶ 관련기사 ◀
☞ 영화 공공의적 모티브된 최악의 존속살해[그해 오늘]
☞ ‘4분의 기적 버스서 심정지로 고꾸라진 男, 대학생들이 살렸다
☞ "술만 마시면 돌변..폭력 남편 피해 아이들과 도망친 게 범죄인가요"
☞ "임영웅과 얘기하는 꿈꿔"...20억 복권 당첨으로 고민 해결
☞ 공룡 美남 돌아온 김우빈, 황금비율 시계는[누구템]
[바이오 성공 투자 1%를 위한 길라잡이 팜이데일리]
[새로워진 이데일리 연재 시리즈 취향대로 PICK하기]
[뉴땡 Shorts 아직 못봤어? 뉴스가 땡길 때, 1분 순삭!]
[10대의 뉴스는 다르다. 하이스쿨 커뮤니티 하이니티]
[다양한 미국 주식정보! 꿀 떨어지는 이유TV에서 확인!]
[빅데이터 AI트레이딩 솔루션 매직차트]
<ⓒ종합 경제정보 미디어 이데일리 - 무단전재 amp; 재배포 금지>
김승권 peace@
관련링크
- 이전글전국 아파트 매매거래 2년새 5만2천건↑…수도권-지방 양극화는 심화 24.09.27
- 다음글"다리미로 토스트 굽기" 1억 상금 향한 8인의 생존 쇼 대박난 사연 [비즈... 24.09.28
댓글목록
등록된 댓글이 없습니다.