AI 챗봇 등과 대화를 나누는 행위는 외로움을 줄이는 데 효과적이지만, 부정적인 심리적 영향과 개인정보 침해 문제가 생길 수 있다는 연구 결과가 나왔다.
14일 한국인공지능윤리학회가 발간한 '인공지능윤리연구' 최신호에는 이 같은 내용의 논문이 실렸다.
논문에 따르면 AI는 노인처럼 일상생활에서 대인 관계가 부족한 사람에게 정서적인 안정을 줄 수 있다.
예컨대 미국의 정신건강 테크 기업 워봇 헬스가 개발한 챗봇 '워봇'의 사용자들은 우울증과 불안 증상이 감소하고, 전반적인 정서적 웰빙이 향상된 것으로 나타났다.
AI는 정신 건강 문제를 조기에 발견하는 데에도 중요한 역할을 하는데, 우울증 환자의 음성이나 텍스트에서 우울한 정서가 감지되면 AI가 의료 전문가에게 알림을 보내 개입하게 할 수 있다.
그러나 논문에서는 AI가 인간의 복잡한 정서적 상태를 완전히 이해하고 적절하게 반응하는 데 한계가 있기에, 챗봇 등이 정신적인 문제를 겪는 사람에게 잘못된 조언을 하거나 위험한 행동을 유도하면 큰 문제가 될 수 있다고 지적했다.
지극히 개인적인 내용으로 대화를 나눴을 때 그 내용이 유출되면 사생활 침해가 발생할 수 있는 점과 AI에 대한 의존이 심해져 사회적 고립이 오히려 심화할 수 있다는 점도 문제다.
그렇기에 AI는 외로움을 완화하는 보완적인 역할로 한정돼야 하고 실제 인간의 정서적 지지가 꼭 필요하다고 논문은 강조했다.
한편 1인 가구, 독거노인이 증가하는 현대 사회에서 외로움 해소에 도움을 주는 AI는 계속 개발되는 추세다.
AI에 공을 들이고 있는 국내 통신사들도 관련 AI를 개발해 운영 중이다.
SK텔레콤[017670]은 지역 사회와 연계해 2022년부터 고독사 위험가구, 1인 시니어 가구를 대상으로 주 1회 안부를 묻는 AI 안부확인서비스를 운영하고 있다.
'아프다', '힘들다' 같은 위험 발화를 한 사람에게 전문 상담사를 연결해주고 위급 대상자로 분류되면 병원 동행 서비스를 받을 수 있다.
KT[030200]는 최근 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 주관하는 초거대 AI 기반 심리케어 서비스 개발에 참여하기로 했다.
이를 통해 이용자는 자신의 정신건강 상태를 간편하게 점검하고 결과에 따라 웹툰, 명상, 게임 등 개인 맞춤 활동으로 건강 상태를 관리할 수 있다.
LG유플러스[032640]는 사용자가 작성한 감정 일기를 기반으로 답장을 보내주는 AI 기반 마음관리 플랫폼 '답다'(답장 받는 다이어리)를 운영 중이다.
<저작권자 © 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>