▲ 장동경 성균관의대 교수(삼성융합의과학원 디지털헬스학과·삼성서울병원 정보전략실장)가 4일 의료윤리연구회 12월 월례강의에서 '인공지능의 의료 윤리적 한계와 대응 방안'에 대해 강의하고 있다.
제약 없는 인공지능 개발은 바람직하지 않지만 그렇다고 개인정보 보호에 무게를 둔 폐쇄적 접근은 4차 산업혁명 시대의 흐름에 뒤쳐질 수 있다는 우려가 제기됐다.
 
장동경 성균관의대 교수(삼성융합의과학원 디지털헬스학과·삼성서울병원 정보전략실장)는 4일 서울시의사회관에서 열린 의료윤리연구회 12월 월례강의(인공지능의 의료 윤리적 한계와 대응 방안)를 통해 "세계적인 비지니스의 흐름이 헬스케어로 모여들고 있고, 4차 산업혁명의 가장 큰 혜택 역시 헬스케어가 될 것이라는 전망이 유력하다"면서 "현재 인공지능 영상진단 시스템은 레지던트 수준의 심전도(ECG)와 피부과 전문의 수준의 피부질환을 판독하는 단계까지 올라섰다"고 설명했다.
 
인공지능을 한 가지 종류의 문제를 풀도록 고안한 '약 인공지능(IBM 왓슨·구글 알파고 등)'과 인간처럼 생각하고 자의식까지 있는 '강 인공지능', 인공지능이 스스로 반복 학습해 지능 대폭발을 하는 단계인 '초 인공지능'으로 구분한 장 교수는 "2090년경에는 강 인공지능 단계까지 발전할 수 있을 것"이라고 전망했다.
 
장 교수는 "하지만 고도화된 분석 틀이라고 규정할 수 있는 인공지능은 방대한 학습 데이터와 하드웨어 기술이 딥러닝(심층 학습)과 결합할 때 발전할 수 있다"면서 "방대한 양질의 치료 학습 데이터가 뒤받침할 때라야 왓슨 포 온콜로지(Watson for Oncology, 왓슨)을 비롯한 약 인공지능이 발전할 수 있을 것"이라고 밝혔다.
 
한국의 B5병원이 왓슨을 도입하지 않은 이유에 대해 장 교수는 "이들 병원의 한국인 위암·간암  등 암 치료 데이터와 성적이 왓슨을 도입한 전세계 병원에 비해 결코 뒤떨어지지 않는다"고 밝힌 뒤 "이미 세브란스병원·서울아산병원·삼성서울병원 등도 자체적으로 인공지능 시스템을 개발하고 있다"면서 "한국인 치료 데이터가 외부로 유출되는 문제도 감안해야 한다"고 설명했다.
 
"인간 지놈 분석 비용이 10여년 전에 비해 1/100 수준으로 떨어졌다"고 밝힌 장 교수는 "환자가 자신의 지놈 데이터를 들고 찾아와 분석을 의뢰하는 의료의 상향 평준화 시대에 대비해야 한다"면서 "인공지능과 빅데이터의 의료적 활용에 따라 기존의 의료와 의료인의 관계에도 적지 않은 변화가 올 것"이라고 전망했다.
 
장 교수는 "앞으로는 인공지능의 도움을 받는 의사와 받지 않는 의사 간에 큰 차이가 날 것"이라며 "인공지능과의 협업을 준비하지 않으면 안된다"고 조언했다.
 
IBM 왓슨이 2026년 전세계 헬스케어 인공지능 시장의 45%를 차지할 것이라는 전망과 관련해 장 교수는 "인공지능이 의료 수가 시스템에 편입될 수 있는 환경을 조성하고, 비즈니스 모델을 개발할 필요가 있다"면서 인공지능 개발의 자생력 확보에 무게를 실었다.
 
"정부가 제시한 보건복지분야 비식별조치 가이드라인을 적용할 경우 데이터 분석을 위해 사용하기 어렵다"고 지적한 장 교수는 인공지능의 발전과 개인정보 보호 사이에서 절충점을 찾아야 한다고 조언했다. 특히 프라이버시 보호를 위한 법적·제도적 규제에만 집중할 경우 시대적 흐름과 발전에 뒤쳐질 수 있다고 우려했다.
 
장 교수는 "한국이 인공지능과 빅데이터에 폐쇄적인 입장을 고수하면 프라이버시는 보호할 수는 있겠지만 인공지능의 시대적 흐름과 발전에 역행하는 결과를 초래한다"면서 "산업 발전이라는 측면과 인공지능 개발과 데이터 관리·개인정보 보호·비식별화 조치 등 개인정보 보호라는 측면을 함께 고려해 사회적·윤리적·법적인 쟁점과 지침을 마련하기 위한 논의가 필요한 시점"이라고 밝혔다.
 
▲ 고도화된 분석 틀로 규정할 수 있는 현재 인공지능의 관건은 정확하고 방대한 양질의 데이터라는 지적이 나왔다. 데이터의 질과 양에 따라 인공지능의 정확도에 차이가 난다는 것이다. (사진=pixabay)
다만 인공지능에 대한 지나친 의존에 대해서는 경계해야 한다고 지적했다.
 
장 교수는 "인공지능에 대한 의존도가 높아질수록 인간의 숙련도 및 환경 변화 대처 능력이 저하되고, 학습과 연구 의지를 약화시킬 가능성이 높다"면서 "안전상의 문제를 야기할 가능성 또한 커질 것"이라고 내다봤다.
 
"인공지능 환경에서는 평생 교육과 면허갱신제도와 함께 인공지능 자체에 대한 평가와 인공지능 활용도를 평가하는 동료평가 기능이 강화될 것"이라고 밝힌 장 교수는 "의학교육 역시 분석능력을 갖춘 의사를 양성하는 형태로 변화할 것"이라고 전망했다.
 
장 교수는 "아직까지 인공지능 개발이나 활용에 대한 가이드라인이 없는 실정"이라며 미국 비영리 연구단체 FLI가 올해 초 '인공지능 컨퍼런스'에서 제안한 '아실로마 AI 원칙'을 소개하는 것으로 강의를 마무리 했다.
 
아실로마 인공지능(AI) 원칙
 
 
1. 연구목표:인공지능 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고, 이로운 혜택을 주는 지능을 개발해야 한다.
2. 연구비 지원:인공지능에 대한 투자에는 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문을 포함해 유익한 이용을 보장하기 위한 연구비를 지원해야 한다.
3. 과학정책 연결:인공지능 연구자와 정책 입안자 간에 건설적이고, 건전한 교류를 해야 한다.
4. 연구문화:인공지능의 연구자와 개발자 간에 협력·신뢰·투명성 문화를 조성해야 한다.
5. 경쟁 피하기:인공지능 시스템을 개발하는 팀은 안전기준에 대한 부실한 개발을 피하기 위해 적극 협력해야 한다.
6. 안전:인공지능 시스템은 작동 수명 전반에 걸쳐 안전해야 하며, 작용가능하고 실현가능할 경우 검증할 수 있어야 한다.
7. 장애 투명성:인공지능 시스템이 장애를 일으킬 경우 그 이유를 확인할 수 있어야 한다.
8. 사법의 투명성:사법제도 결정에 자율시스템이 개입하고 있고, 권위 있는 인권기구가 감사할 경우 만족스러운 설명을 제공해야 한다.
9. 책임:고급 인공지능 시스템의 설계자와 구축자는 사용, 오용, 행동의 도덕적 영향을 미치는 이해관계자이며, 그에 다른 책임과 기회가 있다.
10. 가치관 정렬:고도로 자율적인 인공지능 시스템은 목표와 행동이 작동하는 동안 인간의 가치와 일치하도록 설계해야 한다.
11. 인간의 가치:인공지능 시스템은 인간의 존엄성, 권리, 자유, 문화적 다양성의 이상에 적합하도록 설계·운용해야 한다.
12. 개인정보 보호:인공지능 시스템이 데이터를 분석하고 활용할 수 있는 권한을 부여받은 경우 사람들은 그 데이터를 액세스·관리·통제할 수 있는 권리를 가져야 한다.
13. 자유와 개인정보:인공지능 시스템을 개인정보에 적용할 경우 사람들의 실제 또는 인지된 자유를 부당하게 축소해서는 안된다.
14. 공동 이익:인공지능 기술은 최대한 많은 사람들에게 혜택을 주고, 권한을 부여해야 한다.
15. 공동번영:인류의 모든 혜택을 위해 인공지능 시스템이 만든 경제적 번영은 널리 공유해야 한다.
16. 인간 통제:인간은 인간이 선택한 목표를 달성하기 위해 의사결정을 인공지능 시스템에 위임하는 방법 및 여부를 선택해야 한다.
17. 비파괴:고도화된 인공지능 시스템의 통제에 의해 주어진 능력은 건강한 사회를 지향해야 하며, 이를 지키려는 사회나 시민의 의사결정을 뒤집는 것이 아니라 존중하고 개선해야 한다.
18. 인공지능 무기:치명적인 인공지능 무기의 군비 경쟁은 피해야 한다.
19. 능력주의:합의가 없으므로 인공지능 능력의 제한에 관한 강력한 전제를 피해야 한다.
20. 중요성:고급 인공지능 시스템은 지구상의 생명의 역사에 심각한 변화를 가져올 수 있으며, 그에 상응한 관심과 자원을 계획하고, 관리해야 한다.
21. 위험:인공지능 시스템이 초래하는 위험, 특히 치명적인 또는 실제로 존재하는 위험은 예상되는 영향에 맞춰 계획하고, 완화하도록 노력해야 한다.
22. 자기 복제 자기 개선:인공지능 시스템이 고도의 품질로 자기 복제나 자기 개선하도록 설계된 시스템은 엄격한 안전 및 통제 조치를 받아야 한다.
23. 공동의 선:초지능(슈퍼 인텔리전스)은 널리 공유되는 윤리적 이상을 위해, 그리고 몇몇 국가나 조직이 아닌 모든 인류의 이익을 위해 개발해야 한다.