본문

ChatGPT는 의사를 도울 수 있고, 환자를 해칠 수도 있다.

과학기술발전

등록일  2023.05.04

조회수  764

*제목을 클릭하면 해당 기사로 연결됩니다.

 

기사. ChatGPT Can Help Doctorsand Hurt Patients

 

챗봇(Chatbot)은 의사들에게 의학적 정보를 제공한다는 측면에서 매력적이지만, 연구자들은 힘든 윤리적 결정에 있어 AI를 신뢰하는 것은 위험하다고 경고하고 있다.

 

스탠퍼드 의과대학 교수이자, Kaiser PermanenteCEO였던 ROBERT PEARL이제는 청진기보다 AI가 더 중요하다라고 말했다. Pearl은 더 이상 임상을 보지는 않지만, 그는 ChatGPT를 사용하여, 환자의 치료상황을 요약정리하고, 레터를 작성하고, 난감한 상황에서 어떻게 환자를 진단할지에 대한 아이디어를 구하는 의사들을 안다고 말했다. 그는 의사들이 사람들의 건강 개선을 위한 수십만 개의 유용한 봇(bot) 응용 프로그램을 발견할 것이라고 추측했다.

 

OpenAIChatGPT와 같은 기술이 구글 검색의 우월성에 도전하고, 산업 변화에 대한 논의를 촉발함에 따라, 언어 모델이 프로그래머, 법률가, 의사와 같은 사무직(white-collar) 노동자들의 업무를 담당할 수 있다는 것을 보여주기 시작했다. 이는 해당 기술이 환자에게 서비스를 제공하는 데 어떤 도움을 줄 수 있는지를 두고 의사들 사이에 논의를 촉발했다. 의료 전문가들은 언어 모델이 디지털 의료 기록에서 정보를 찾아내거나, 환자에게 길고 기술적인 내용을 요약해줄 것을 기대하지만, 한편으로 의사를 속이거나 잘못된 진단이나 치료 계획으로 이어지는 부정확한 응답을 제공할 수 있다는 두려움도 가지고 있다.

 

AI가 의료서비스에 미치는 영향을 연구하는 하버드 대학 공중보건 강사 Heather MattieChatGPT를 처음 사용했을 때, 깊은 인상을 받았다. 그녀는 자신이 연구하는 주제인 HIV 연구에서 사회적 관계 모델링이 어떻게 사용되었는지에 대한 요약을 요청했다. ChatGPT는 그녀의 지식 밖에 있는 주제에 대해서도 언급했고, 그녀는 더 이상 이것이 진실인지 분별할 수 없었다. 그녀는 ChatGPT가 의학 논문에서 완전히 다르거나 상반되는 결론을 어떻게 조정하는지, 그리고 누가 그 답변이 적절하거나, 유해한지를 결정하는지 궁금해졌다.

 

Mattie는 사용자가 봇(bot)100% 정확하지 않을 수 있고, 편향된 결과를 생성할 수 있음을 인지하고 있다면, 텍스트 요약과 같은 업무에 유용한 도구가 될 수 있다고 말했다. 그러나, MattieChatGPT가 인종 및 성별 편향적 기록이 있는 심혈관 질환 및 환자중증도평가에 대한 진단 도구를 어떻게 다룰지 우려했다. 또한, 그녀는 ChatGPT가 종종 사실을 만들어 내거나, 정보의 출처를 명확하게 밝히지 않기 때문에 임상에서 사용하기를 조심스러워하고 있다. “의학 지식과 의료 행위는 시간이 지남에 따라 변화하고 발전한다. 우리는 ChatGPT가 일반적인 치료라고 언급할 때 그 정보를 어느 시점에서 가져오는지 알 수 없다. 그것은 최신 정보일까, 이미 지나간 것일까?”

 

또한, 사용자는 ChatGPT 스타일의 봇이 허구 또는 잘못된 정보를 아주 자연스럽게 제공하기 때문에, 알고리즘 응답에 대한 사실 확인을 하지 않으면 심각한 문제로 이어질 수 있다는 점에 주의해야 한다. 또한, AI가 생성한 텍스트는 미묘하게 사람들에게 영향을 미친다. 지난 1월 발표된 ChatGPT의 윤리적 문제에 관한 연구*, 동료 평가(peer review)를 거치지는 않았지만, 챗봇이 인간의 의사결정에 영향을 미칠 수 있는 일관성 없는 도덕적 조언자를 만든다고 결론 내렸다.

*The moral authority of ChatGPT

 

의사가 되는 것은 백과사전적인 의학 지식을 되뇌는 것 이상의 것을 갖춰야 한다. 많은 의사들이 텍스트 요약과 같은 위험도가 낮은 작업에 ChatGPT를 사용하는 것은 열광하고 있지만, 생명윤리학자들은 의사들이 생존 또는 회복 가능성이 낮은 환자를 수술하는 것이 올바른 선택인지와 같은 어려운 윤리적 결정에 직면했을 때 봇에게 의존하여 조언을 구하는 것을 우려한다.

 

에든버러 대학 Technomoral Futures 센터 생명윤리학자 Jamie Webb이러한 종류의 단계(윤리적 문제를 봇에게 의존)를 생성형 AI 모델에 맡기거나 자동화되게 할 수 없다라고 밝혔다작년, Webb과 도덕 심리학팀은 의학에서 사용할 AI 기반 도덕적 조언자(moral adviser)” 구축을 위해 필요한 것이 무엇인지 연구*했다. Webb과 공동 저자는 이러한 시스템이 서로 다른 윤리 원칙 간에 균형을 안정적으로 유지하는 것이 어려울 것이며, 의료종사자가 스스로 어려운 결정을 내리는 대신 봇에 지나치게 의존하게 되면 도덕적 탈숙련화(moral de-skilling)”가 일어날 수 있다고 결론지었다.

*Artificial Moral Advisors: A New Perspective from Moral Psychology

 

의료서비스에서 ChatGPT의 사용과 문제점 

 - 출처: What does ChatGPT mean for Healthcare?

 

ChatGPT는 의료서비스에서 어떻게 사용될까?

의료서비스에서 ChatGPT의 잠재적 활용분야가 많고, ChatGPT가 의료서비스를 개선할 수 있는 규모는 의료서비스 시스템에 중요한 변화를 가져올 수 있다. 코로나19 유행 이후, 원격 의료 이용이 증가하였으며, ChatGPT는 환자가 진료를 예약하고, 치료받도록 돕고, 의료 정보를 관리하는 가상의 보조원을 개발하여 의료서비스의 원격 관리를 가능하게 했다.

 

의료서비스에서 최종 결정을 내리기 위해서는 항상 인간의사가 필요하지만, ChatGPT는 잠재적인 약물 상호 간 작용을 표시하거나, 특정 상태에 대한 치료 옵션 제안, 관련 임상 지침의 제공 등과 같은 증거 기반에 권장 사항을 실시간으로 제공하여, 임상 의사의 결정을 지원할 수 있다*.

*관련 연구: Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum

 

진료기록 보관은 ChatGPT가 의료시스템을 개선할 수 있는 또 다른 영역이다. ChatGPT는 기록-보관 절차를 효과적으로 간소화하면서, 환자의 병력을 요약할 수 있다. 이론적으로, 의료종사자는 ChatGPT에 명령을 내릴 수 있으며, ChatGPT는 주요 세부 정보를 자동으로 요약할 수 있다. 실시간 번역은 의료 분야에서 활용할 수 있는 ChatGPT의 또 다른 기능이다. 시스템의 고급 언어 처리 기능을 활용하여 기술 용어와 의학 전문 용어를 빠르고 정확하게 번역하여 환자가 그들의 진단, 치료 사항 및 의학적 지시사항을 완전하게 이해할 수 있도록 한다.

 

임상 시험은 의료시스템의 발전에 매우 중요하다. 이는 새로운 치료법, 진단 도구 및 예방 전략을 개발하는데 중심 역할을 한다. 임상 시험을 위해서는 많은 참가자가 필요하며 때로는 모집이 어려울 수 있다. ChatGPT는 해당 임상 시험 모집 기준을 충족하는 사람을 식별하여 연구자를 참여 의향이 있는 사람과 연결하는데 도움을 줄 수 있다. ChatGPT는 또한 의학 교육을 향상시킬 수 있는 잠재력이 있다. 이는 전문의료진과 학생들이 필요한 의료 정보에 접근할 수 있도록 도울 것이다. 마지막으로, ChatGPT는 정신 건강 지원, 환자 원격 모니터링, 약물 관리, 질병 감시, 진단서 작성, 환자 분류 등에 잠재적으로 응용 가능하다.

 

의료서비스에서 ChatGPT 사용의 문제점

위에 언급한 바와 같이, 의료서비스에서 ChatGPT의 잠재력은 매우 크지만 관련된 모든 논의에서 윤리적 고려를 배제할 수는 없다. ChatGPT 및 발전된 AI의 출현과 함께 우리는 인공 지능으로의 전환점에 있으며, 점점 더 똑똑해지고 유능해지는 도구를 윤리적이고 안전하게 사용하는 방법을 찾아야 한다.

 

모든 산업에서 AI 도구를 사용할 때 해결해야 할 많은 윤리적 고려사항이 있다. 아마도 의료서비스에서 가장 중요한 것은 개인정보 보호 및 안전에 대한 것이다. ChatGPT를 사용할 때, 우리는 데이터를 제공받고, 의료 분야에서 해당 데이터에는 종종 환자의 기밀 정보가 포함될 수 있다. ChatGPT가 의료 분야에서 더 폭넓게 사용되기 전에, 환자의 정보가 기밀로 유지되도록 시스템을 구축이 필요하므로, 이는 데이터 보호에 있어 많은 영향을 미칠 것이다. 또한, ChatGPT의 능력으로 인해 사용자는 시스템이 항상 100% 정확하다고 맹목적으로 신뢰할 수 있는 위험이 있다. ChatGPT는 모든 단계의 업무 수행이 아닌 지원을 위해서만 사용되어야 하며, ChatGPT가 제공하는 모든 것은 한 번 더 확인할 필요가 있다. 만약 ChatGPT로부터 제공된 AI 기반의 정보가 부정확하다면, 그것은 사람들의 건강에 악영향을 미칠 것이기 때문에 각별한 주의가 필요하다.

 

전반적으로, ChatGPT는 다양한 방식으로 의료시스템을 간소화시키고 개선하는 잠재력을 가지고 있다. 이 기술이 더 많은 분야에 도입됨에 따라 인터넷이 산업적 혁명을 일으킨 것과 같은 큰 변화를 가져올 것이다. 그러나, 이 기술은 주의해서 사용해야 하며, “인간의료 전문가 없이 의료와 관련된 의사결정을 내리는데 이를 이용해서는 안 된다.