검색어 입력폼

"AI가 인간 조종자 살해? 그렇게 무책임한 프로그램 없어"

연합뉴스 입력 06.14.2023 09:11 AM 조회 193
해당 프로젝트 참여한 한국 전문가, 한국국방기술학회 웨비나서 주장
하늘을 나는 드론 [기사 내용과 직접 연관 없음]


최근 '인공지능(AI)이 적용된 무인기가 가상훈련에서 인간 조종자를 임무 수행 방해물로 판단해 살해했다'는 보도가 나와 큰 이슈가 됐다가 이후 사실이 아닌 것으로 드러난 적이 있다.

미 공군의 AI 시험·운영 책임자인 터커 해밀턴 대령이 영국 왕립항공학회(RAeS)가 지난 5월 말 개최한 학술회의에서 발표했다는 '악당 AI 드론 시뮬레이션 시험' 관련 내용이 보도됐는데, 터커 대령이 이후 발표 내용을 철회한 것이다.

그는 해당 시험이 실제 시뮬레이션 훈련이 아니라 가설에 근거해 진행된 '사고실험'(thought experiment)으로 군 외부에서 이뤄졌다고 해명했지만, AI가 언젠가 영화 '터미네이터'에 나오는 사악한 기계 '스카이넷'처럼 인간을 공격할 수 있는 것 아니냐는 대중의 우려를 확인한 계기가 됐다.

해당 프로젝트에 참가했다는 류봉균 에피시스사이언스 대표는 14일 한국국방기술과학학회·한국IT서비스학회·AI미래포럼이 공동주최한 '국방 AI 특별 웨비나'에서 "절대로 이런 실험이 일어나지 않았고, 이렇게 무책임하게 AI를 디자인하는 프로그램은 최소한 제가 알기로는 없다"고 말했다.

그러면서 "해밀턴 대령이 윤리적 AI를 강조하다 과장되게 포장한 것 같다"면서 최초 보도가 "오해의 산물"이었다고 덧붙였다.

이기헌 연세대 교수는 웨비나에서 "인공지능 자체의 문제보다는 저희가 인공지능을 잘 이해하지 못하는 데서 생긴 간극이 오해와 오보를 부른다"며 "게다가 국방AI라는 민감한 주제와 관련해선 오해가 더욱 반복되는 것 같다"고 진단했다.

이 교수는 "신흥 기술이 두려운 것, '터미네이터' 같은 것으로 프레임이 짜지면 기술 발전에 좋지 않고 그로 인한 부작용이 너무 많다"고 지적했다.

이 교수는 또 국방AI 구축을 위해서는 양질의 데이터 확보가 선행돼야 한다고 제언했다.

군이 AI를 기반으로 의사결정을 내릴 땐 신뢰할 수 있는 정보여야 하는데, 챗GPT 등으로 대표되는 초거대언어모델(LLM)에는 거짓 정보도 많이 섞여 있다는 것이다.

이기헌 교수는 "목적성 없이 데이터를 모은다면 데이터 '컬렉션'이 아니라 '호딩'(Hoarding·무책임한 수집)이 될 수 있다"고 꼬집었다.
댓글 0
0/300
※ 이 댓글에 대한 법적 책임은 작성자에게 귀속됩니다.
  • 댓글이 없습니다