본문

편향된 AI는 건강에 해로울 수 있다. - 알고리즘 공정성을 높이는 방법

과학기술발전

등록일  2021.03.12

조회수  160

인공지능은 의사(doctors)가 정확한 진단과 치료 결정을 내릴 수 있도록 도와줌으로써 인간의 건강을 증진시킬 수 있는 큰 가능성을 가지고 있다. 또한 인공지능은 소수자(minorities), 여성, 경제적 약자에게 해(harm)를 끼칠 수 있는 차별로 이어질 수 있다 

 

문제는 보건의료 알고리즘이 차별되는 경우에 사람들이 어디에 의지할 수 있는가?에 있다 

 

이러한 종류의 차별의 두드러진 예는 고위험 환자를 돌보기 위한 프로그램인 만성질환자에게 추천되는 알고리즘이다. 2019년의 한 연구에 따르면 알고리즘은 이렇게 유익한 서비스에 환자를 선별할 때 아프리카계 미국인 환자보다 백인 환자를 선호하는 것으로 나타났다. 왜냐하면 의료수요의 대용(proxy)으로 과거에 사용한 의료비(medical expenditures)를 사용했기 때문이다.

 

빈곤과 보건의료의 접근에 대한 어려움으로 아프리카계 미국인들은 다른 사람들에 비해 보건의료에 많은 돈을 지출할 수 없다. 이 알고리즘은 아프리카 미국인들의 낮은 의료비 지출이 그들이 건강하다는 것을 나타내는 것으로 잘못 해석했고, 결정적으로 그들에게 필요한 지원을 박탈하였다.

 

법학 및 생명윤리학 교수 Sharona Hoffman(샤로나 호프만)은 이 문제를 분석하여 해결할 수 있는 방법을 찾아냈다.

 

알고리즘이 차별을 익히는 방법

알고리즘의 편향(bias)을 어떻게 설명하는가?

 

역사적으로 차별은 때로 훈련된 데이터에 포함되었으며, 알고리즘은 기존의 차별을 영속시키도록 학습된다.

 

예를 들어, 의사들은 협심증과 심장마비를 자주 남성이 여성보다 더 흔하게 경험하는 증상으로 진단한다. 그 결과 심장질환으로 진단받는 여성이 많지 않다. 의사를 돕기 위해 과거에 진단한 심장질환 데이터를 기반으로 훈련되어 설계된 알고리즘은 여성의 증상이 아닌 남성의 증상으로 강조하도록 학습되어, 여성이 과소 진단되는 문제를 악화시킬 수 있다.  

 

또한, AI 차별은 고위험 관리 프로그램 알고리즘과 같이 잘못된 가정에 기원(root)할 수 있다.

 

또 다른 예로, 전자 건강 기록 소프트웨어 회사인 Epic은 병원이 진료예약을 지키지 않는 환자를 식별할 수 있는 AI 기반 도구를 개발하였다. 의료진은 수입 손실을 방지하기 위하여 잠재적 노쇼(no-show) 환자를 이중 예약(double-booking)하였다. 노쇼(no-show) 가능성을 평가하는 주요 변수는 과거에 진료예약을 놓친 것이었기 때문에, AI는 경제적으로 취약한 사람들을 불균형적으로 식별했다.

 

이들은 자주 교통, 육아, 직장 휴가 등에 문제가 있는 사람들이다. 그들이 실제로 진료를 받기 위해 병원에 왔을 때, 이중 예약(double-booking)으로 인해 의사는 그들을 진료할 수 있는 시간이 짧았다.

 

일부 알고리즘은 명백하게 인종(race)에 따라 조정된다. 개발자들은 임상 데이터를 검토한 결과 일반적으로 아프리카계 미국인들은 다른 사람들과 상이한 건강 위험과 결과를 가지고 있기 때문에 알고리즘을 더 정확하게 만들기 위해 알고리즘을 조정했다.

 

그러나 이러한 조정의 기반이 되는 데이터는 종종 구식이거나 의심스럽거나 편향되어 있다. 이러한 알고리즘은 의사가 흑인 환자를 잘못 진단할 수 있고, 흑인환자에게서 자원을 전용하게 하는 원인이 될 수 있다.

 

예를 들어, 0부터 100까지 점수를 매기는 미국 심장 협회 심부전 위험 점수(American Heart Association hear risk score)’는 비()흑인에게 3점을 추가한다. 따라서 비()흑인 환자는 심장질환으로 사망할 가능성이 더 높은 것으로 파악된다. 마찬가지로 신장 결석(kidney stone) 알고리즘은 비()흑인에게 13점 중 3점을 추가하여, 이들에게 신장 결석이 있을 가능성이 더 높은 것으로 평가한다. 그러나 두 경우 모두 그 가정(assumption)이 틀렸다. 이렇게 단순한 알고리즘은 AI 시스템에 통합될 필요는 없지만, AI 개발자는 알고리즘을 개발할 때 유사한 가정을 하기도 한다.

 

인종에 맞게 조정되는 알고리즘은 부정확한 일반화에 기초할 수 있으며 의사(physicians)들을 잘못 인도할 수 있다. 피부색만으로는 다른 건강상의 위험이나 결과를 설명할 수 없다. 대신, 차이점들이 유전학이나 사회경제적 요인에 기인하는 경우가 자주 있기 때문에, 이럴 때 알고리즘을 조정해야 한다.

 

더욱이 인구의 거의 7%가 혼혈이다. 알고리즘이 아프리카계 미국인과 비()흑인에게 다른 치료법을 제안한다면 의사는 다인종 환자를 어떻게 치료해야 하는가?

 

알고리즘 공정성 제고

알고리즘 편향을 해결하기 위한 몇 가지 방법이 있다: 소송(litigation), 규제(regulation), 입법(legislation) 및 모범 사례(best practices)  

  • 차별 구제 소송(Disparate impact litigation): 알고리즘 편향은 의도적인 차별을 구성하지 않는다. AI 개발자와 AI를 사용하는 의사들이 환자에게 해를 끼치지는 않을 것 같다. 대신 AI는 소수민족이나 여성에게 이질적인 영향을 끼쳐 의도하지 않게 차별로 연결될 수 있다. 고용 및 주거분야에서 차별을 받았다고 느끼는 사람들은 차별 구제 소송으로 소를 제기할 수 있다. 그러나 법원은 개인 당사자가 보건의료 사건에 대해 차별 효과에 대해 소송을 제기할 수 없다고 판단했다. AI시대에 이 접근 방식은 별 의미가 없다. 고소인은 의도하지 않은 차별을 초래하는 의료행위에 대해 소송을 제기할 수 있어야 한다.
  • 미국 식품의약국 규제(FDA regulation): 미국 식품의약국은 보건의료 관련 AI의 규제 방법을 논의하고 있다. 현재 일부 AI를 규제하고 있다. 식품의약국이 AI를 감독하는 한, AI시스템이 승인을 받기 전에 편견과 차별 문제를 감지하고 해결되도록 해야 한다.
  • 알고리즘 책임법(Algorithmic Accountability Act): 2019Cory Booker 상원 의원, Ron Wyden Yvette D. Clarke 의원은 알고리즘 책임법을 도입했다. 부분적으로는 기업이 사용하는 알고리즘을 연구하고, 편견을 파악하고, 발견한 문제를 수정하도록 요구하는 내용이었다. 이 법안은 법률로 통과되지 않았지만 좀 더 성공적인 미래의 입법을 위한 길을 열었다.
  • 더 공정한 AI 만들기(Make fairer AIs): 의료 AI 개발자와 사용자는 알고리즘 공정성에 우선순위를 둘 수 있다. 공정성은 의료 AI 시스템을 설계, 검증 및 구현하는 데 있어 핵심 요소여야 하며, 보건의료 제공자는 이러한 시스템을 선택하고 사용할 때 공정성을 염두에 두어야 한다.  

의료 분야에서 AI는 점점 일반화 되고 있다. AI 차별은 많은 환자들에게 피해를 줄 수 있는 심각한 문제이고, 이를 인식하고 해결하는 것은 기술과 보건의료 분야 종사자들의 책임이다.

 

기사 및 사진 : https://theconversation.com/biased-ai-can-be-bad-for-your-health-heres-how-to-promote-algorithmic-fairness-153088

첨부파일
이미지 2021-03-12 (해외).jpg (28.1KB / 다운로드  14)