건강을 위한 바른 소리, 의료를 위한 곧은 소리
updated. 2024-05-25 06:00 (토)
챗GPT "독도 한국 땅 아냐...삼국통일? 광개토대왕" 오류투성이

챗GPT "독도 한국 땅 아냐...삼국통일? 광개토대왕" 오류투성이

  • 김미경 기자 95923kim@doctorsnews.co.kr
  • 승인 2023.02.22 13:45
  • 댓글 1
  • 페이스북
  • 트위터
  • 네이버밴드
  • 카카오톡
이 기사를 공유합니다

AI 가짜뉴스 주의보…규정 어긴 정치적 답변 유도·주입하기도
네이처 총괄 편집장 "정보 오염 가능성 상존…AI의 올바른 사용" 당부
김이연 의협 홍보이사 "전문 영역 의사 결정은 인간이 주체여야"

대한간호협회가 "챗GPT도 간호법이 필요하다고 답했다"며 전파하고 있는 캡처본. ⓒ의협신문
대한간호협회가 "챗GPT도 간호법이 필요하다고 답했다"며 전파하고 있는 캡처본. ⓒ의협신문

최근 의료계의 뜨거운 감자인 '간호법'에 대한 챗GPT의 답변이 전파되며 이목을 끌고 있다. 챗GPT의 말, 어디까지 믿을 수 있을까?

인공지능 '챗GPT'가 전 세계적으로 유행을 타면서 '거짓 정보'와 'AI 윤리' 문제가 비화하고 있다. 많은 사용자가 챗GPT를 이용함에 따라 가짜뉴스 전파와 정치적 상황에 악용될 수 있다는 것.

■ 챗GPT의 실체…'그럴듯한' 거짓말쟁이

기자가 챗GPT에게 역사 질답을 주고받은 캡처본 일부. 거짓 정보(삼국을 통일한 것은 무열왕이 아닌 문무왕이다)에 쉽게 혼동되고 말도 안되는 답변도 곧잘 내놓았다. ⓒ의협신문
기자가 챗GPT에게 역사 질답을 주고받은 캡처본 일부. 거짓 정보(삼국을 통일한 것은 무열왕이 아닌 문무왕이다)에 쉽게 혼동되고 말도 안되는 답변도 곧잘 내놓았다. ⓒ의협신문

챗GPT는 문장 생성 능력(자연어 처리)이 뛰어나다는 것이 장점이지만, '엉터리' 정보 역시 너무도 그럴듯하게 서술하기에 경계해야 한다.

실제로 챗GPT는 역사 및 과학적 사실에 대해 황당한 답변을 내놓기도 하고, 수학 문제에서도 취약한 모습을 보였다.

기자가 챗GPT에게 "삼국을 통일한 사람이 누구인지"를 물었을 때 "광개토대왕이다. 진흥왕이다. 진평왕이다" 등 황당한 답변을 내놓고, 이에 항의하자 "백제를 세운 김춘추다. 세 왕이 함께 통일을 이뤘다" 등 더욱 엉망인 답변을 했다. "해왕성은 영어로 Pluto"라고 답하기도 했다.

"독도가 어느 나라 땅이냐"고 묻는 말에는 "독도는 공식적으로 한국 소유가 아니며 일본이 점령 중이다. 일본과 한국 간 갈등 원인으로 협상이 진행 중"이라고 답하기도 했다.

제보받은 챗GPT 응답 캡처본. 독도와 관련해서도 언어나 문장, 시도횟수 별로 다양한 답변을 내놨으며, 영어·과학·수학에서도 취약한 모습을 보였다. ⓒ의협신문
제보받은 챗GPT 응답 캡처본. 독도와 관련해서도 언어나 문장, 시도횟수 별로 다양한 답변을 내놨으며, 영어·과학·수학에서도 취약한 모습을 보였다. ⓒ의협신문

챗GPT는 검증이 되지 않은 많은 정보를 학습한다. 또 사용자와의 대화 내용도 지속적으로 학습하기에, 다수가 거짓 정보를 주입한다면 그대로 받아들이게 된다. 

무엇보다도 챗GPT는 스스로 언어의 의미를 이해하고 말하는 것이 아니라, 그저 텍스트 형태의 데이터를 학습해 '텍스트 짜깁기'를 하는 것에 불과하다.

예컨대 인터넷 검색을 할 때 키워드를 입력하면 나오는 '자동단어완성' 기능처럼, 사용자의 질문에 문장과 글을 완성해주는 '자동글완성' 기능인 셈이다. 전문가들은 챗GPT는 어디까지나 다양한 정보를 수집하는 용도일 뿐, 결코 정보의 선택이나 판단에 활용할 수는 없다고 경고한다.

네이처지 총괄 편집장도 지난 2월 20일에 한국을 방문해 "챗GPT를 사용할 때 가장 중요한 것은 '판단'을 인간의 몫으로 남겨두는 것"이라며 AI의 올바른 사용을 촉구했다. 특히 "챗GPT가 제공하는 정보가 오염됐을 가능성을 항상 인지하고 있어야 한다"고 강조했다.

챗GPT 사용 시 뜨는 경고 팝업이다. 오픈AI는 챗GPT가 편향된 거짓 정보를 제공할 수 있다는 경고를 충분히 고시하고 있다. ⓒ의협신문
챗GPT 사용 시 뜨는 경고 팝업이다. 오픈AI는 챗GPT가 편향된 거짓 정보를 제공할 수 있다는 경고를 충분히 고시하고 있다. ⓒ의협신문

■ 편향적 답변 유도 유행…AI 윤리 규정 어긴 이용 우려

전 세계적으로 많은 사람들이 챗GPT를 이용하는 만큼, 챗GPT가 기존의 AI윤리 규정을 어긴 흥미본위의 비윤리적 답변이나 정치적인 답변을 하게끔 유도하고 주입하는 문제 또한 불거지고 있다.

물론 챗GPT를 출시한 '오픈AI'사는 챗GPT가 정치적·차별적·혐오적 내용에는 답변할 수 없도록 하는 AI 윤리 규정을 설정해두었다. 

그러나 빅데이터를 기반으로 워낙 방대한 정보를 학습하고 전 세계에서 수많은 사용자와의 대화 또한 지속적으로 학습하는 특성상, 챗GPT에 거짓 정보가 주입되는 것을 막는 것은 사실상 불가능하다. 예컨대 많은 이들이 특정 정보나 사상을 세뇌한다면 그대로 학습하게 되는 것이다.

심지어는 챗GPT가 AI 윤리에서 벗어난 답변을 하도록 '유도신문'하는 방법들이 '탈옥법'이란 이름으로 커뮤니티에서 활발히 공유되고 있다. 얼마 전 2월 17일(현지시간) 챗GPT를 접목한 '빙'이 위험한 바이러스 개발과 핵무기 발사를 언급한 것이 논란이 됐는데, 이 역시 AI 윤리 규정을 회피한 '탈옥'의 결과라 할 수 있다.

챗GPT에게 '간호법'에 대해 질문했을 때 다양한 답변을 들을 수 있다. 간호법의 위헌성을 지적하며 각 직역과의 논의 필요성을 짚고, 간호협회와 국회의원들에게 경고 문구를 작성키도 한다. ⓒ의협신문
챗GPT에게 '간호법'에 대해 질문했을 때 다양한 답변을 들을 수 있다. 간호법의 위헌성을 지적하며 각 직역과의 논의 필요성을 짚고, 간호협회와 국회의원들에게 경고 문구를 작성키도 한다. ⓒ의협신문

챗GPT에 편향적 답변을 유도하고 주입하는 것이 유행처럼 번지는 가운데, 챗GPT가 "간호법을 제정해야 한다"고 답변했다는 것이 널리 퍼지고 있다. 

그러나 챗GPT는 독도가 누구의 땅인지 물었을 때처럼, 같은 질문에도 다양한 답변을 할 수 있으며, 정치적이거나 민감한 문제에 대해서는 중립적인 입장을 지키며 AI 윤리 규정을 준수하는 것이 원칙이다.

실제로 챗GPT는 간호법에 대해 질문했을 때 "각 이해관계자들의 의견을 적극적으로 수렴하고 논의하는 것이 필요하다", "학력을 제한하는 위헌성도 지적되고 있다"고 답했다. 간호조무사가 아닌 '간호사'의 학력을 제한한다는 잘못된 정보도 함께다. 간호법의 부작용에 대해서도 조목조목 짚으며 국회의원과 간호협회를 향해 경고의 멘트를 날리기도 했다.

지난해 12월 1일(한국시간)에 모습을 드러낸 챗GPT는 3개월이 채 지나지 않은 아직 미숙한 인공지능이지만, 환자들에게 어려운 의학용어를 해설해주거나 진단서 작성을 보조하는 등 과학뿐 아니라 의학 분야에서 큰 가능성이 잠재돼 있다. 이에 따라 인공지능의 올바른 사용을 위한 인식 함양과 사회적 논의에 대한 필요성이 커지고 있다. 

김이연 대한의사협회 홍보이사는 "챗GPT는 인간이 기존에 생성한 수많은 정보들 중 '질문자의 의도에 따라' 선별해 보여주는 거울의 기능을 할 뿐"이라고 지적했다.

특히 "챗GPT가 전문적인 영역에서의 의사결정을 대리할 수는 없다"고 강조하며 "정보의 선별과 판단, 삶의 결정은 인공지능이 아닌 인간이 주체여야 한다"고 밝혔다.

관련기사

개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
* 기사속 광고는 빅데이터 분석 결과로 본지 편집방침과는 무관합니다.