오픈AI "사람처럼 대화하는 AI, 사용자의 감정적 의존 우려"
페이지 정보
본문
오픈AI 로고. 로이터연합뉴스 챗GPT 개발사 오픈AI가 실제 사람과 대화하는 듯한 경험을 제공하는 생성형 인공지능AI 서비스가 사용자들을 AI에 감정적으로 의존하게 만들 수 있다고 밝혔다. 11일 오픈AI가 홈페이지에 공개한 음성지원 AI 모델 GPT-4o 안전성 보고서에선 ‘의인화와 정서적 의존성’의 위험성에 대해 이같이 지적했다. 오픈AI가 지난 5월 공개한 GPT-4o는 음성 인식, 텍스트 이해, 이미지 인식 등이 통합돼 사용자와 실시간 상호작용이 가능한 멀티모달Multimodal, 다중 모드 AI 모델이다. 기계음이 아닌 자연스러운 사람 목소리로 음성 대화가 가능해 인간이 AI 비서와 사랑에 빠지는 내용의 영화 <허her> 속 AI가 현실이 됐다는 평가를 받았다. 하지만 GPT-4o에 사용된 AI 음성이 영화 ‘허’에 나오는 AI 비서 목소리의 주인공인 스칼릿 조핸슨의 목소리와 비슷하다는 지적이 나오면서 논란에 휩싸였다. 오픈AI는 보고서에서 “사용자들이 챗GPT와 음성 모드로 대화하면서 공유된 유대감을 표현하는 현상이 관찰됐다”라고 밝혔다. 영화에서 인간이 AI와 사랑에 빠지는 허구의 이야기가 현실이 될 수도 있다는 우려를 드러낸 셈이다. 오픈AI는 “사용자가 AI와 사회적 관계를 형성하면서 다른 사람과의 상호 작용에 대한 필요성을 줄일 수 있다”며 “이는 외로운 개인에 잠재적으로 도움을 줄 수 있지만, 다른 사람과의 건강한 관계에도 영향을 미칠 수 있다”라고 판단했다. 또한 생성형 AI가 잘못된 정보를 알려줄 수 있음에도 AI가 실제 사람처럼 말하는 것이 사용자가 AI를 더욱 신뢰하게 만들 수 있다고 지적했다. 장기적으로는 사람들 간의 사회적 상호작용에도 영향을 끼칠 수 있다는 지적도 나왔다. GPT-4o는 AI의 음성 답변이 이뤄지는 도중에도 사용자가 끼어들어 ‘마이크를 잡을 수’ 있도록 설계됐는데, 이러한 방식이 기존 대화 규범과는 어긋나기 때문이다. 오픈AI는 “AI를 ‘안전하게’ 만들기 위해 최선을 다하고 있으며 사용자의 잠재적인 ‘감정적 의존’에 대해 지속해서 연구할 계획”이라고 밝혔다. 이번 분석은 외부 전문가로 구성된 레드팀을 통해 진행됐다. 4가지 평가 분야 중 세 부분은 위험도가 낮았으나, 설득력 측면에선 인간보다 AI가 일부 높게 나타나 위험이 ‘중간’으로 평가됐다. 배문규 기자 sobbell@kyunghyang.com 배문규 기자 sobbell@kyunghyang.com 경향신문 주요뉴스 · [단독] 적십자사, 해피머니 5년간 181억 구매…발행사는 내용증명 수취 않고 잠적 · 이준석 “한동훈은 ‘술 안 먹는 윤석열’···제3자 특검 얘기했다 발 빼” · 잔나비 최정훈 “‘♥한지민’과 그렇게 됐습니다” · “천문학적 횡령액”···법원, 3000억 횡령 경남은행 간부에 징역 35년 선고 · 이종찬 “용산 어느 곳에 일제 밀정 그림자 있나” · 날 선 여의도…새삼스레 힘 받는 정책위 의장 · 전주 폭발 사고 20대 “처음엔 다 지원해 줄듯 하던 회사…이젠 연락도 없어” · 눈물바다로 변한 전웅태의 믹스트존 인터뷰 “동생 앞에서 우는 부끄러운 형이 됐네요” · 안철수 “김경수 댓글조작은 전무후무한 사건···복권 재고해야” · 경기도 올해 백일해 환자 5000명…90%가 초·중·고등학생 ▶ 매일 라이브 경향티비, 재밌고 효과빠른 시사 소화제! ▶ ’5·18 성폭력 아카이브’ 16명의 증언을 모두 확인하세요 ⓒ경향신문www.khan.co.kr, 무단전재 및 재배포 금지 허her> |
관련링크
- 이전글트럼프와 달리…해리스 "대통령 되면 연준 결정에 절대 간섭안해" 24.08.11
- 다음글에버랜드 갤럭시존, 누적 방문객 15만명 24.08.11
댓글목록
등록된 댓글이 없습니다.