의료 AI를 바탕으로 진단내렸다 의료사고... 책임은 누구에게 있을까

- AI, 오류 발생 시 다양한 이해관계자에 법적 책임 소재 불명확해
- 인공지능 표준치료 기준 정립 필요성↑
- 프라이버시 보호 문제도 더 보완되어야... 개인정보 처리 및 보안 유지 중요

빠르게 발전하는 인공지능 기술의 활용도가 다양한 분야에서 높아지고 있는 가운데 의료 현장에서도 훌륭한 활용도를 보일 것으로 전망되고 있지만 이 과정에서 발생하는 윤리문제에 대한 책임소재에 대한 우려가 매우 높다.



수년에 걸친 학습과 수련을 통해 형성된 전문가의 지식과 경험을 바탕으로 하는 의료서비스가 의사가 아닌 인공지능에 의해 제공되는 것이 과연 바람직하다고 볼 수 있는지, 의료 인공지능을 바탕으로 진단과 처치를 행하다 발생할 악영향에 대해 책임은 누구에게 있는지 등 다양한 윤리 문제가 모호한 상황인 탓에 관련 논의조차 제대로 이어지고 있지 못한 실정이다.

이에 전문가들은 인공지능이 의료에 적용되어 본격적으로 임상 현장에 도입되기 위해선 우선적으로 다양한 윤리 문제를 종합적으로 검토할 수 있는 규제와 거버넌스 체계 등이 마련되어야 가능하다고 한 목소리를 내고 있다.

연세대학교 의과대학 인문사회의학교실 의료법윤리학과 이일학 부교수, 양지현 연구강사가 한국보건산업진흥원이 발간하는 ‘보건산업정책연구’에 ‘의료 인공지능 개발, 활용의 사회적 영향과 윤리’ 보고서를 통해 이 같이 밝혔다.



◆ 의료 인공지능 표준치료 기준 모호... 책임 소재 기준 정립 필요

보고서를 자세히 살펴보면 2022년 11월 기준으로 국내 식약처에 허가를 받은 인공지능은 총 149건이다. 이들 중 국내 건강보험에 등재된 것은 2건에 불과하지만 상당히 많은 개발이 이뤄지고 있는 것이 사실이다.

연구팀은 “기술의 파급효과에 대한 사회적인 고려가 부족한 상태에서 인공지능 기술이 빠른 속도로 진보하는 것에 대해 우려 섞인 시각도 존재한다”며 보건의료 영영에서의 인공지능 개발과 활용을 위해서 시급한 윤리적인 과제로 ▼개인의 프라이버시보호 ▼인공지능의 결정과정의 투명성과 설명가능성을 통한 위험과 책임 문제의 소명 ▼정보수집, 처리 과정의 편향 문제 해결, 책임성의 수립 ▼인간적 관계의 유지 등을 꼽고 있다.

현재 의료인들이 임상 현장에 의료인공지능을 사용하는 것에 망설이는 가장 큰 이유는 책임 소재와 관련한 문제다.

실제로 인공지능을 환자를 진료하는 임상 영역에 적용하였을 때도 의도하지 않은 결과가 발생할 가능성이 아예 없는 것이 아니다. 알고리즘 자체의 오류를 발견하지 못해 잘못된 결론이 도출될 수 있고, 알고리즘에 문제가 없더라도 이론적으로 학습된 데이터와 실제 임상 환경과의 차이로 인해 잘못된 결론이 도출된 가능성도 있다.

연구팀은 “인공지능이 아무리 방대한 양의 데이터를 기반으로 결론을 도출한다고 하더라도 상식을 기반으로 복합적으로 추론해내는 기능은 아직 미흡하기에 개별적 사안의 특수성을 충분히 반영하지 못한다는 한계가 있다”며 “이러한 인공지능의 한계로 인해 의료인 환자의 상태를 종합적으로 고려하여 내린 진단과 인공지능을 도출한 결과가 다를 수 있다”고 설명했다.

이로 인해 임상 현장에서 의료인이 의료 인공지능을 활용해 진단을 내리거나 치료를 수행해 환자에게 좋지 않은 결과가 발생할 경우 그 책임 소재가 여전히 불명확한 상황이다.

우리나라의 의료 과실 관련 대법원 판결은 그동안 의료인이 의료행위를 할 당시의 임상의학 분야에서 실천되고 있는 의료 행위의 수준, 즉 표준 치료에 부합하는지와 의료인이 최선의 주의의무를 따져 종합적으로 죄의 유무를 판단한다.

그러나 인공지능을 활용한 표준치료의 기준이 명확하게 정립되지 않은 상황에서 현재로서는 의료인 과실 여부를 판단하는 것에 있어 인공지능의 결론을 참고한 것을 어떻게 판단할지 매우 모호한 상황이다.

연구팀은 “지금의 법리만 그대로 적용할 경우, 인공지능의 결론이 정확한지가 아니라 의료인의 선택이 표준 치료에 부합하는지가 과실 판단의 주요 기준이 되므로 의료인은 인공지능을 진료에 활용하는 것에 소극적인 태도로 보일 수 있다”고 전망했다.

더군다나 인공지능의 활용으로 발생할 인공지능의 활용으로 발생하는 책임 소재의 규명이 쉬운일도 아니다.

연구팀은 “알고리즘의 설계, 개발, 학습, 재학습, 이용, 사후평가, 감독 등 인공지능의 활용의 전주기는 서로 단절적인 것이 아니라 상호 영향을 미치는 관계에 있으므로 이를 악용한 의료인 외에 인공지능 개발자, 데이터 관리자, 환자, 의료기관 등 다양한 이해관계자가 법적으로 복잡하게 관여될 수 밖에 없다”고 지적했다.

이어 “각 과정에서 개입한 복수의 행위 주체 중 누구에게 책임을 부과할 것인지를 판단하기 위해서는 사고 발생에 영향을 미친 결함이나 오류가 어느 단계에서 기인했는지 파악할 수 있어야 하는데 인공지능 블랙박스 특성으로 인해 문제 발생에 관련된 원인을 쉽게 특정하기 어려운 기술적 결함도 문제가 있다”고 말했다.

결국 인공지능 활용에 수반되는 여러 불확실성과 그로 인한 잠재적 위험을 예방하기 위해서는 인공지능의 활용 전 주기에서 발생하는 문제에 대한 지속적인 관리 감독이 뒷받침 되어야 한다.



◆ 건강 관련 민감 정보처리 포함해 적법한 개인정보 처리 및 보안 유지도 필요해

연구팀은 이런 윤리적인 문제에서 가장 큰 비중을 차지할 것으로 보이는 것이 ‘프라이버시보호’ 문제라고 지적했다.

연구팀은 “알고리즘 개발을 위해 학습용 데이터가 반드시 필요하지만 이러한 목적에 필요한 범위 내에서 최소한의 데이터만 수집 후 활용해야 하며 정보의 주체 프라이버시를 보호하기 위한 조치가 이루어져야 한다”며 “의료 인공지능 개발의 경우 상당한 양의 건강 관련 민감한 정보 처리가 포함될 수 있으므로 적법한 개인정보 처리 근거를 확보하고 보안을 유지하는 것이 더욱 중요하다”고 강조했다.

따라서 개인정보 주체의 개별적인 동의 요건을 완화해 데이터 활용을 용이하게 하는면서도 데이터 활용으로 인한 프라이버시 침해를 예방하기 위한 다른 보안 조치는 더욱 강화돼야 한다고 강조했다.

연구팀은 “개인정보는 한 번 유통되기 시작하면 이를 완전히 삭제하기 어렵고 개인정보 침해 사고로 인한 개인의 존엄성 훼손은 돌이키기 어렵다. 그리고 개인정보의 오남용 또는 유출 사고는 동시에 다수의 피해자가 발생하는 경향이 있으며 민감정보가 유출되는 경우 사회적 불이익 또는 차별로도 이어질 수 있으므로 기술적, 물리적, 관리적 안전조치를 충실히 해야 한다”고 설명했다.

이어 “의료 분야에 인공지능을 도입하는 이유는 이러한 기술의 활용을 통해 보다 나은 의료서비스를 제공할 가능성을 기대하기 때문이다. 의료 인공지능의 윤리적 과제는 이러한 가능성과 상충하는 여러 문제를 파악하고 평가해 이익과 위험이 균형을 유지할 수 있도록 해야 한다”고 했다.

그러면서 “인공지능의 투명성과 설명 가능성, 편향 가능성, 책임성, 신뢰, 안전성의 문제를 종합적으로 검토할 수 있는 규제와 거버넌스 체계가 마련돼야 할 것”이라고 덧붙였다.

<저작권자 ⓒ 의사나라뉴스, 무단 전재 및 재배포 금지>