“챗GPT, 임상 현장에 도입하려면 의사가 최종 점검 해야”

- 아주대학교 병리학교실 김석휘 교수, 임상 현장에서의 AI 활용과 그 한계 분석
- “공개 테이터셋 기반인 챗GPT... 정보의 신뢰성 검증은 어려워”

무한한 잠재력을 가지고 있는 것으로 평가받으며 다양한 분야에서 활용이 가능할 것이라는 기대감이 높은 생산형 인공지능(AI) ‘챗GPT’가 임상 현장에 도입되기 위해선 반드시 의사의 검증이 최종 의사결정 단계에 포함되어야 한다는 주장이 나왔다.


▲ 출처 : 로이터 연합뉴스

아주대 병리학교실 김석휘 교수는 이같은 내용을 담은 ‘ChatGPT 시대, 의료 인공지능이 의사를 대신할 수 있을까?’의 연구결과를 최근 대한내과학회지 ‘The Korean Journal Of Medicine’에 게재했다.

김 교수는 “의료계에서 AI가 의사를 대체할 것이라는 질문을 시작한 지 오래됐지만, 챗 GPT 이전에는 다소 냉소적인 반응이 많았다”며 “다만 최근에는 분위기가 많이 달라지고 있고, 대부분의 의사들이 AI에 대해서 찬사와 위협을 동시에 느끼고 있는 것 같다”고 말했다.

김 교수는 챗GPT를 비롯해 AI모델들이 임상 현장에 적용되기 위해선 미충족 수요를 해결할 수 있을지, 의사를 완전히 대신할 수 있을지 등 다양한 관점을 살펴봐야 한다고 설명했다. 이를 현실적으로 따졌을 때 지금의 기술력으로는 의사가 현실정으로 수행하기 어려운 부분에서 의사의 결정을 돕는 것은 가능할 것이라고 전망했다.

김 교수는 “미충족 수요가 너무 높고, 현실적으로 의사가 수행하는 것이 불가능한 일이라면 AI 모델의 임상적 활용이 가능할 것”이라며 “예를 들어 피의 검사의 전혈구 계산은 임상적 주요 결정에 꼭 필요한 과정이지만 기계의 힘을 빌려 정확히 셀 수 있고, 기능이 검증된 경우 의사는 이를 믿고 결정할 것”이라고 강조했다.

이어 “어떤 영억이든 그 결과를 의사가 점검 후 최종 판단을 내리는 것이라면 이런 모델은 의사를 대체한다기보다는 의사의 역할과 의료의 범주를 확장해주는 역할을 하는 것으로 볼 수 있다”고 분석했다.

따라서 의사가 어렵지 않게 할 수 있는 의료라면 AI가 적용되기는 어려울 것으로 내다봤다. 의사가 의학적 결정의 모든 책임을 지는 구조에서 AI 등이 이에 개입하게 되면 책임 소재가 불분명해질 수 있다고도 우려했다.

김 교수는 “의사가 할 수 있는 진료 현장에는 들어오기 어려울 것”이라며 “의사의 최종 점검 없이 AI의 결정에 따라 진료 방침이 결정되는 모델도 그렇다. 모든 의학적 결정의 책임을 의사가 지는 현재 구조에서 특정 모델이 환자의 운명을 바꾸는 결정을 할 경우 책임 소재가 불분명 하기 때문”이라고 말했다.

이어 “이러한 논거로 AI 모델을 개발할 때에도 의사가 최종 결정을 점검할 수 있는지를 가장 중요한 관문으로 보고 있다”며 “챗GPT의 경우에도 모델이 출력한 결과물에 대해 최종적으로 점검하고, 결정하는 주체가 돼야 의료 현장에 들어올 수 있을 것”이라고 설명했다.

챗GPT처럼 공개된 데이터를 기반으로 하는 AI 모델의 경우 포함된 정보에 대해 전문가가 최종적으로 검증하는 장치가 없기 때문에 임상 현장 적용이 어려울 것이라고 봤다.

연구 모델이 의료 현장에 적용되기 위해선 ▼연구 가설과 계획 설정 ▼의학연구윤리심의위원회 심의 ▼연구 모델 학습 위한 데이터 정답지를 받고 이를 기반한 모델 개발 ▼모델의 정확성과 적절성 검증 ▼임상 현장에서 구체적 적응증에 대한 우월성·비열등성 입증 ▼규제 기관에 임상시험 결과 허가 등 포함된 과정을 거쳐야 한다고 주장했다.

그러면서 “의료계는 근거중심의학의 기조를 놓지 않을 것이며 전문가 집단의 정교한 설계에 의해 개발된 모델만이 실제 환자에게 닿을 수 있을 것”이라며 “챗GPT를 포함한 어떠한 AI 모델이 의료현장에 실제 도입되려면 의사에 의해 검증과 최종 확인을 받아야 하는 구조가 돼야 할 것”이라고 했다.

<저작권자 ⓒ 의사나라뉴스, 무단 전재 및 재배포 금지>