건강을 위한 바른 소리, 의료를 위한 곧은 소리
updated. 2024-04-16 21:21 (화)
창간 50주년 기념 특집 '설명동의'에 인격적 관계·교감이 없다면?
창간 50주년 기념 특집 '설명동의'에 인격적 관계·교감이 없다면?
  • Doctorsnews admin@doctorsnews.co.kr
  • 승인 2017.03.20 05:59
  • 댓글 0
  • 페이스북
  • 트위터
  • 네이버밴드
  • 카카오톡
이 기사를 공유합니다

왓슨시대 법과 의료윤리
이일학 연세의대 교수
 

인공지능과 인간의 선택

▲ 이일학 연세의대 교수

우선 확인해 둘 것이 있다. 의료 수준의 향상은 기술의 발전에 힘입은 바 크다는 점이다. 기술 발전의 결과 보고, 듣고, 만지고, 맡고, 맛보는 지극히 '인간적'인 진단 도구와 경험과 지식이라는 '인간적'인 판단 도구만으로 진료하겠다는 사람은 없을 것이다.

그러나 '인간적'인 것의 쇠퇴가 인간의 위상 축소를 의미하는 것은 아니다. 진단 도구는 인간의 능력을 확대시킨 것에 불과한 것이기 때문이다.

진단 영상기술이니 임상검사 기술은 인간의 감각을 자연적인 수준에서 확대시켰다. 현대의 인간 의사는 더 이상 자연스러운 감각에 의존하고 있지 않다. 소리로 보고(초음파), 인체를 가르지 않고 해부하며(CT·MRI), 분자와 원자의 흔적을 본다. 통신기술의 발전으로 현대 의학은 먼 곳의 소리도 듣고 반응해 돌볼 수 있게 됐다.

그런데 이렇게 의학의 감각이 발전하는 동안 그 두뇌는 여전히 의사에 머물러 있었다. 인간 중에서 하얀 가운을 입고 청진기를 둘러 맨 그 사람이 그 커다란 병원의 정보를 종합하고 판단해서 결정을 내리고, 직접 실행하는 두뇌 역할을 해 왔다.

의료 기술의 발전은 어찌 보면 모든 정보를 의사에게 집중시키는 과정이었다. 지식은 어떤가? 지식도 의사에게 집중되는 방향으로 발전했다.

온갖 종류의 지식 데이터베이스 덕분에 새로운 의학 지식을 습득하기 위해 발품을 팔아야 할 필요도 없어진 셈이다. 지식의 양이 엄청나게 늘어났다고 하지만, 그 방향성만큼은 의사를 향한 발전이다.

인공지능의 문제, 혹은 필요성은 인간 의사가, 신으로부터 받은, 능력으로 감당하기에 지식의 양이 너무 많다는데 있다. 이 많은 지식은 무엇을 선택할지 몰라 고민하는 것(뷔리당의 당나귀 Buridan's ass)도 문제지만, 새롭지만 검증되지 않은 정보로 도움되지 않는 선택을 하는 것도 심각한 문제로 제기한다. 어려운 판단을 돕는 수단을 갖춘다는 측면에서 인간 의사 두뇌를 확장한다는 측면에서 인공지능 의사는 필요한 발전이다.

그러나 인간 의사의 두뇌는 단순히 새로운 지식을 외우는 기능만 수행하지 않는다. 이 두뇌는 정보의 질을 평가해야 하고, 환자의 문제를 해결하기 위해 환자에게 얻은 정보를 지식의 영역에 맞춰야 하며, 가능한 몇 가지 행동지침을 골라내어 윤리적으로 가능한 것을 환자에게 제안/설득하는 일을 반복적으로 수행해야 한다.

외우는 기계가 아닌 의사는(아주 오래 전부터 의사는 잘 외우는 사람들이었다. 앞으로도 그럴까?) 자신에게 집중된 정보를 선택하는 전문가가 돼야 하는 것이다.

그런데 인간 기능의 향상을 어느 정도까지 할 것인지 '선택'의 문제가 생긴다. 선택을 기계에게 전적으로 맡길 것인가? 아니면 기계에게는 선택지를 좁히는 정도까지만 기대할 것인가? 이 선택은 선호의 문제이고, 효과에 대한 산술적 계산의 문제이며, 환자를 돌보는 의학의 역할에 대한 윤리적 선택이기도 하다.

이 선택에 따라 도구인 법의 형태가 정해질 것이다. 인공지능에 부여한 선택권의 정도에 따라 의사가 의학적 권위의 위치로 남을수도 있고, 인공지능이 그 자리를 차지할 수도 있다는 것이다.

인공지능의 발전은 지금까지 의사에게 집중됐던 발전의 방향을 바꾸는 측면이 있다. 그리고 의사의 권력은 지식의 실천 측면에서 그 능력을 잃게 된다는 점에서 심각하게 축소될 수 있다.

인공지능이 선택할 수 있다면: 인공지능과 설명동의

만약 인공지능의 선택이 의사에게 의견으로 제공되는 정도라면 인공지능 의사는 그저 고도화된 데이터베이스에 불과하다. 윤리와 법의 문제가 지금보다 심각하지 않을 것이다. 여전히 인간 의사가 의학의 지도자로 남아 자신의 권위만큼 책임을 지면 될 것이다. 그러나 인공지능이 선택할 수 있다면?

인공지능이 선택할 수 있다고 할 때, 심각하게 대두하는 문제는 충분한 설명에 근거한 동의(설명동의)의 문제다. 먼저 설명동의가 의사가 제공한 최종안 수락이 아니라는 점부터 분명하게 하자. 설명동의 과정에서 의사는 '이것 밖에 없습니다. 치료를 계속하거나 그만합시다'라고 환자에게 선언하는 것이 아니다.

만약 수락여부가 설명동의 과정의 유일한 요소이고, 환자의 거절이 결과의 수용을 의미하는 것이라면 인공지능이 의사를 대체한다는 것이 무슨 문제가 되겠는가.

이렇게 생각하면 오늘날 설명동의 관행은 재고할 가치가 있다. 인공지능이 환자와 맺는 관계는 무엇인가? 인공지능은 이상적인 설명동의 과정을 환자에게 제공할 수 있을까? 설명동의 과정을 자동화하는 것을 상상해 볼 수 있다.

그러나 설명동의 과정에서 환자가 필요로 하는 것이 차가운 정보에 한정되지 않는다면, 내 필요에 맞춰 설명하고 걱정에 공감하며 신뢰감과 안정감을 얻을 수 있는 그런 인격적인 관계와 교감을 바탕으로 한 연합(liaison)이라면 인공지능과 자신의 취약함에 직면한 환자 사이에 형성될 수 있을까? 아직 인간은 기계와 교감을 맺을 수 있을 정도로 '진화'하지 않았다.

인공지능이 기술적으로는 선택할 수 있게 된 시점에도 여전히 인간 환자는 인격적인 도움을 필요로 한다. 이렇게 생각할수도 있다. 오늘날의 의료는 의사에게 기능적인 측면을 요구하고 있기에, 진단을 듣고 선택을 내리는 낯설고 두려운 과정 중에 환자와 같은 입장에 설 것을 기대할 수 없다.

만약 이 선택이 인공지능의 몫이 된다면 의사는 환자가 마주 앉은 컴퓨터 단말기가 아니라 인간의 얼굴 역할을 하게 되지 않을까? 이 변화는 아직 경험한 적 없는 역할을 의사들에게 요구하는 것일지도 모르겠다.

인공지능과 법적 책임

법적 의무와 결과에 대한 책임은 그것을 지울 수 있는 인격(person)을 대상으로 해서 성립한다. 인공지능이 인격이 될 수 있을까? 한 가지 고려할 것은 인공지능은 인간의사처럼 개업할 수 없다는 점이다.

인공지능은 시스템을 필요로 한다. 그렇다면 인공지능의 법적 책임은 시스템을 구축한 인격(그것이 병원이든, 사람 의사든)에 두면 될 것 같다. 인공지능의 오진에 대한 책임은 인공지능을 운영하는 병원이 지면 되는 것이다.

물론 의료행위 관련 법규도 운영자에게 적용될 것이다. 분쟁이 생긴다면 역시 책임의 소재가 논점이 될 것이다. 제조자/운영자 책임을 적용할 것인지, 최선의 진료 기준을 무엇으로 할 것인지, 예를 들어 '최신버전'의 판단에 따른 결정이라면 최선의 진료라고 간주할 것인지의 문제가 흥미롭게 전개될 것이다.

결국 무과실입증책임, 무과실보상제도와 같은 현재 의료법적 도구가 여전히 유지될 것이다. 이 부분은 우리 법원이 어떻게 대처하는지를 살펴보아야 할 일이다.

그러나 법적 책임의 존재를 다투는 의료분쟁 역시 인간의 일이라는 점을 생각해 보라. 치료 후에 환자가 납득할 수 없는 결과가 흔하다. 그렇다면 인공지능의 진료를 받은 인간 환자는 의료사고를 어떻게 이해할까?

이 중 의료분쟁으로 옮겨가는 비율은 그다지 높지 않다해도 분쟁은 어떻게 조정하게 될까? 다시 강조하지만 의료의 일은 인간의 일이다. 인간이 바뀌지 않는다면 그 성격에 급격한 변화가 있을 것 같지는 않다. 물론 의사의 역할에 변화가 있을 것임은 굳이 말할 필요가 없을 것이다. 의료계는 이 변화에 준비가 되어 있는가? 

번호를 클릭하면 해당기사로 이동됩니다.


 


개의 댓글

0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400

내 댓글 모음

* 기사속 광고는 빅데이터 분석 결과로 본지 편집방침과는 무관합니다.