'인공지능 시대' 환자에 대한 '교감' 대체 못해
'인공지능 시대' 환자에 대한 '교감' 대체 못해
  • 송성철 기자 good@doctorsnews.co.kr
  • 승인 2016.11.08 12:19
  • 댓글 0
  • 페이스북
  • 트위터
  • 네이버밴드
  • 카카오톡
이 기사를 공유합니다

인공지능 로봇 포함한 통합적 윤리시스템 마련해야
이향만 가톨릭의대 교수, 의료윤리연구회 월례모임 강연

▲ 이향만 가톨릭의대 교수(인문사회의학과)가 7일 의료윤리연구회 월례모임에서 '인공지능 시대, 선행의 원칙과 악행금지 원칙'에 대해 강연하고 있다.ⓒ의협신문 송성철
'인공지능(artificial intelligence)'이 예측하지 못한 오진으로 인간에게 해로운 결과를 끼쳤을 때 책임을 제작자에게 물어야 할까? 아니면 사용자가 져야  할까?

컴퓨터가 인간처럼 사고하고 학습과 자기계발을 통해 추론하며, 근거까지 제시할 수 있는 '인공지능' 시대에 대비, 통합적인 윤리시스템이 필요하다는 조언이 나왔다.

이향만 가톨릭의대 교수(인문사회의학과)는 7일 의료윤리연구회 월례모임에서 '인공지능 시대, 선행의 원칙과 악행금지 원칙' 주제강연을 통해 "최근 MIT  컴퓨터 공학·인공지능연구소가 개발한 '인공 신경망'은 정보만 제시한 기존 인공지능에서 한 발 나아가 판단과 추론은 물론 근거까지 제시하고 있다"며 "왜 그런 판단을 했는지 사람처럼 설명할 수 있을 정도로 인공지능이 발전하고 있다"고 설명했다.

이 교수는 "하지만 인공지능이 사고를 냈을 때 배상책임과 처벌을 비롯해 규제와 법적 처리 등에 대해서는 종래의 법적인 틀로 풀어내기에는 한계가 있다"며 "어떤 방식으로 책임을 물을지 법적·윤리적 해석이 곤란하고, 이론적 토대도 부족한 실정"이라고 밝혔다.

"인공지능 로봇기술 시대에는 사용자와 노동자 사이에 인공지능의 개입으로 새로운 지배와 생산관계가 성립하면서 자율성·효율성·완전성·획일성 등 인공지능 중심의 가치관이 대두될 것"이라고 전망한 이 교수는 "이로 인해 인간 본래의 가치가 훼손될 수 있다"고 우려했다.

이같은 문제를 해결하기 위해 이 교수는 "인간중심의 윤리에서 기계를 포함하는 행위자 중심의 윤리로 확장할 필요가 있다"며 "인공지능 로봇을 새로운 행위자로 인정하는 포괄적인 윤리가 필요하다"고 밝혔다.

"인공지능 로봇기술과 빅데이터에 대한 윤리와 법적인 문제에 대해 데이터 활용과 알고리즘 설계 단계부터 도덕성과 윤리적 측면을 고려해 개발이 이뤄져야 한다"고 지적한 이 교수는 "윤리적 문제에 대한 질의표를 구성해 도구적 도덕성과 기능적 도덕성에 대해 고려할 수 있도록 해야 한다"고 조언했다.

"인공지능시대에도 의사의 환자(인간)에 대한 사랑과 인격적인 교감은 결코 다른 방식을 대처할 수 없을 것"이라고 강조한 이 교수는 "치유의 관계와 가치가 더 의미있게 하기 위해서는 윤리적 성찰과 사고를 통해 윤리적인 삶을 살고자 노력해야 한다"고 강조했다.

 


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

* 기사속 광고는 빅데이터 분석 결과로 본지 편집방침과는 무관합니다.