총 12 건
총 12 건
편향된 AI는 건강에 해로울 수 있다. - 알고리즘 공정성을 높이는 방법
※ 기사 [Biased AI can be bad for your health – here’s how to promote algorithmic fairness] https://theconversation.com/biased-ai-can-be-bad-for-your-health-heres-how-to-promote-algorithmic-fairness-153088 인공지능은 의사(doctors)가 정확한 진단과 치료 결정을 내릴 수 있도록 도와줌으로써 인간의 건강을 증진시킬 수 있는 큰 가능성을 가지고 있다. 또한 인공지능은 소수자(minorities), 여성, 경제적 약자에게 해(harm)를 끼칠 수 있는 차별로 이어질 수 있다. 문제는 보건의료 알고리즘이 차별되는 경우에 사람들이 어디에 의지할 수 있는가?에 있다. 이러한 종류의 차별의 두드러진 예는 고위험 환자를 돌보기 위한 프로그램인 만성질환자에게 추천되는 알고리즘이다. 2019년의 한 연구에 따르면 알고리즘은 이렇게 유익한 서비스에 환자를 선별할 때 아프리카계 미국인 환자보다 백인 환...
과학기술발전 2021.03.12 조회수 665
보건의료 인공지능이 실수했을 때 책임은 누가 지는가?
※ 기사. When AI in healthcare goes wrong, who is responsible? https://qz.com/1905712/when-ai-in-healthcare-goes-wrong-who-is-responsible-2/ ※ Harvard Journal of Law & Technology https://jolt.law.harvard.edu/assets/articlePDFs/v31/The-Artificial-Intelligence-Black-Box-and-the-Failure-of-Intent-and-Causation-Yavar-Bathaee.pdf ※ AMA Journal of Ethics https://journalofethics.ama-assn.org/article/are-current-tort-liability-doctrines-adequate-addressing-injury-caused-ai/2019-02 인공지능은 암을 진단하고 자살을 예측하고 수술을 돕는데 이용될 수 있음. 이 모든 사례에서 인공지능이 인간 의사들보다 정해진 과업으로 더 나은 결과를 낸다고 암시하는 연구결과도 나와 있음. 그런데 뭔가 잘못되면 누가 책임질까? 미국 캘리포니아폴리테크닉주립대(California Polytechnic State Univ...
과학기술발전 2020.10.05 조회수 1632
미국 유타주, 감염병 대유행 시 장애인을 위한 안전장치 마련
※ 기사 : https://abcnews.go.com/Health/wireStory/utah-sets-pandemic-safeguards-people-disabilities-72503897 미국 유타주는 코로나19 대유행으로 병원이 압도당한 경우 의사가 진료할 때 장애가 있더라도 배제하지 않도록 위기관리지침을 정비한 다섯 번째 주가 됨. 미국 보건복지부(Department of Health and Human Services) 민권국(Office for Civil Rights) 책임자 Roger Severino는 연방 공무원들이 승인한 변경사항이 장애인 옹호자들의 불만을 해소하고, 다른 주가 본받을 만한 새로운 기준을 정했다고 밝힘. 이 결정은 장애인들이 대유행 동안 진료를 거부당할 수 있다고 우려하는 것을 덜어줌. Severino는 “아무리 어려워져도 여러분들이 가장 취약한 사람들을 배 밖으로 밀어내선 안 된다”고 밝힘. 의료분배(care-rationing), 환자분류(triage)로 알려진 이 계획은 주 정부가 의사들과 간호사들...
생명윤리 2020.08.27 조회수 317
다운증후군 관련 단체는 영국의 새로운 산전검사에 대해 경고함
※ 기사. Down’s syndrome campaign group issues warning over new pre-natal test https://inews.co.uk/news/health/downs-syndrome-new-prenatal-test-rise-abortions-campaign-group-572688 영국 정부의 새로운 산전검사가 다운증후군(Down’s syndrome; 21번 염색체가 3개인 유전질환) 관련 단체(Don’t Screen Us Out)로부터 보건당국에 의해 심각한 우려를 고려하지 않고 결정되었다는 비난을 받고 있음. 다운증후군 관련 단체는 정부에 세포가 없는 DNA 검사 시행을 중단하고, 다운증후군 환자와 가족을 지원하는 개혁안을 도입할 것을 촉구함. 이 단체는 새로운 검사가 태아이상징후선별프로그램(Fetal Anomaly Screening Programme)에 존재하는 ‘비공식적인 우생학적 반(anti) 장애 차별문화’를 악화시키기만 할 뿐이라고 밝힘. 단체 대변인(Lynn Murray)은 “다운증후군인 딸의 ...
보조생식 및 출산 2020.08.12 조회수 540
#MedBikini 후폭풍은 연구윤리위원회의 디지털 공백(gap)를 드러냄
※ 기사. MedBikini Backlash Exposes Research Ethics Boards’ Digital Gaps https://news.bloomberglaw.com/pharma-and-life-sciences/medbikini-backlash-exposes-research-ethics-boards-digital-gaps 개요 2019년 혈관수술저널(Journal of Vascular Surgery)에 게재된 연구로 2년간 혈관수술분야를 졸업한 480명의 졸업생을 토대로 분석한 연구에서 연구진들은 졸업생들의 SNS를 보기 위해 가짜 계정과 프로필을 만들었고 연구결과, 235명의 의료 레지던트 중 61명이 전문적이지 않고 잠재적으로 전문적이지 않은 모습 나타냈다고 밝힘. 비 전문성에는 비키니를 입은 사진을 올리는 것이 포함되며, 의사들은 이런 비전문적인 콘텐츠에 대해 주의해야한다고 발표한 것임. 이후 연구는 가짜 sns계정을 만들어 여성 사진을 염탐한 점, 여성이 비키니를 입었다는 이유로 비난하고 있는 점 등으로 성차별적이라는 비난...
인간대상연구 2020.08.11 조회수 205
심장수술부터 출산까지 영향을 미치는 임상적인 알고리즘이 인종편향적인 왜곡을 보인다는 연구결...
※ 기사. Racial bias skews algorithms widely used to guide care from heart surgery to birth, study finds https://www.statnews.com/2020/06/17/racial-bias-skews-algorithms-widely-used-to-guide-patient-care/ 미국 내과의사들에게 심장수술을 받는 환자, 신장치료가 필요한 환자, 질식 분만을 시도해야 하는 환자 등의 진료 시 의사결정에 도움이 되는 도구가 인종적으로 편향되어있다고 NEJM(New England Journal of Medicine) 저널에 게재됨. ☞ NEJM 저널 : https://www.nejm.org/doi/full/10.1056/NEJMms2004740 수천만 명의 미국인들의 건강관리를 지도하기 위해 병원과 의사들에게 이용되는 알고리즘은 개발자가 모르는 암묵적인 인종차별주의로 엉망이라는 것이 최근의 증거임. 이는 종종 흑인들이 더 낮은 수준의 진료를 받는 결과를 초래함. 이 새로운 연구결과는 인종과 알고리즘에 의한 환자 진료에 대...
의료윤리 2020.06.29 조회수 237
구글의 유방조영술 인공지능은 인종적 차이를 설명하지 못함
※ 기사. https://qz.com/1781123/googles-ai-for-mammograms-doesnt-account-for-race/ 구글은 인간인 방사선전문의보다 더 정확하게 판독할 인공지능도구를 연구하고 있음. ☞ 저널(그림/사진) : https://www.nature.com/articles/s41586-019-1799-6 미국 여성의 경우 인공지능이 위음성을 9.4%, 위양성을 5.7% 줄였으며, 영국 여성의 경우 각각 2.7%와 1.7%를 줄인 것으로 나타남. 그러나 구글의 연구는 연구대상자인 여성의 인종적 구성을 설명하지 못함. 인공지능이 모든 여성의 유방암을 정확하게 예측하기 위해서는 그 도구를 훈련시키는 데이터가 더 많은 인구집단을 반영하는 것이 중요함. 지난해 매사추세츠공과대(MIT)는 흑인여성과 백인여성 모두에게 효과적으로 유방암을 예측할 수 있는 인공지능모델을 구축함. ☞ 관련 정보 : http://news.mit.edu/2019/using-ai-predict-breast-cancer-and-personalize-care-05...
과학기술발전 2020.01.13 조회수 192
미 국립표준기술원(NIST)이 인종편향에 대한 얼굴인식 알고리즘을 시험하는 방법
※ 기사. https://www.scientificamerican.com/article/how-nist-tested-facial-recognition-algorithms-for-racial-bias/ 국립표준기술원(National Institute of Standards and Technology, 이하 NIST)의 분석 결과, 알고리즘의 많은 부분이 백인에 비해 흑인이나 동아시아의 얼굴을 부정확하게 식별할 가능성이 10배에서 100배 더 높았다는 것을 밝혀냄. <얼굴 인식 벤더 테스트 프로그램이란> 얼굴인식 벤더 테스트는 얼굴 인식 기능의 핵심 알고리즘 테스트임. 첫 번째 파트에서는 일대일 검증 정확도를 통해 알고리즘이 두 개의 이미지를 얼마나 잘 취하여 같은 사람인지의 여부를 판단할 수 있는지 확인함. 두 번째 파트는 일대 다식별(one-to-many identification) 과정을 살펴봄. <세 번째 단계의 결과는?> 세 번째 파트는 데이터 세트의 서로 다른 인구 통계학 전반에 걸쳐 알고리즘이 다르게 차등적으로 수행되는지...
과학기술발전 2020.01.10 조회수 521
[오피니언] 임상의사결정을 위한 기계학습 : 보이지 않는 것에 주의하세요!
※ 기사. https://www.statnews.com/2019/12/12/machine-learning-clinical-decision-making-limitations/?utm_source=STAT+Newsletters&utm_campaign=99e4960888-Daily_Recap&utm_medium=email&utm_term=0_8cab1d7961-99e4960888-151680373 기계학습을 통한 연구의 주장을 심도 있게 검토하지 않고 받아들여서는 안 됨. ◆ 데이터에 대한 비판 -전자의무기록(청구, 임상 기록 등)의 흔한 형태는 보건의료시스템과 접한 사람에 대해서만 정보를 보유하고 있음. -병원에 방문하는 환자도 건강상태가 지속적으로 기록되지는 않음. -흑인과 원주민 환자는 암 임상시험에 실제 인구집단보다 현저하게 적게 참여하고 있음. ◆ 측정기준(metrics)에 대한 비판 -하나의 평가측정기준은 성능의 복잡함을 포착할 수 없음. -교차검증에서 다중 홀드아웃샘플에 기초하여 평가되지 않는 경우가 자주 있음. -어떤 도구가 하위그...
과학기술발전 2019.12.24 조회수 117
[오피니언] 인공지능 개발계획을 점검하기 위한 윤리위원회 구성
※ 기사. https://hbr.org/2019/11/create-an-ethics-committee-to-keep-your-ai-initiative-in-check?mod=djemAIPro 참고문헌: https://www.accenture.com/us-en/insights/software-platforms/building-data-ai-ethics-committees 인공지능을 이용하는 조직은 강력한 조직 전반의 가치가 책임지는 혁신을 조성하는데 역할을 해야 한다고 인식하기 시작함. 이는 평등에 대한 책임, 윤리적이고 인간적인 사용에 대한 책임이라는 두 가지 역할을 생성하는 것을 우선함. 윤리위원회는 조직의 가치에 기초한 의도를 유지하는 것뿐만 아니라 그들이 인공지능을 어떻게 이용하는지에 대한 투명성을 높이는데 도움을 줌. 이 구역을 선도하기 위하여 조직은 성장하기 위한 세 가지 영역에 초점을 맞춰야 함. ◆ 윤리 및 인공지능에 대한 거버넌스 구축 ◆ 공평함을 언제 어떻게 발생시키는지, 무슨 편향을 어떻게 설명할 것인지 ◆ 즉각...
과학기술발전 2019.11.25 조회수 233
스마트워치는 유색인종의 맥박을 정확하게 추적하지 못할 수도 있음
※ 기사. https://www.statnews.com/2019/07/24/fitbit-accuracy-dark-skin/ 참고문헌: https://www.mdpi.com/2075-4426/7/2/3 미국에서는 약 4천만명이 심장박동을 감지할 수 있는 스마트워치나 피트니스 추적기를 가지고 있음. 하지만 몇몇 유색인종은 부정확한 판독을 받을 위험이 있음. 전문가들에 따르면 착용할 수 있는 심장박동 추적기의 거의 모든 제조사는 피부색이 어두운 소비자들에게 신뢰성이 떨어질 수 있는 기술에 의존함. 스마트워치와 피트니스 추적기 시장은 최근 몇 년간 급성장했고, 소비자와 과학자 모두 추적의 정확성에 대한 폭넓은 우려를 제기했지만, 언론은 이러한 현상에 주목하지 않음. 이러한 기기가 어두운 피부를 읽을 수 없다고 주장하는 소비자로부터 많은 온라인 민원이 있었지만, 제조사들은 일부 소비자들에게 정확도가 떨어질 수 있다는 사실을 공개하지 않음.
과학기술발전 2019.07.31 조회수 232
자율주행차의 잠재적 위험 : 피부색이 어두운 보행자를 감지하지 못한다는 연구결과가 나옴
※ 기사. https://www.vox.com/future-perfect/2019/3/5/18251924/self-driving-car-racial-bias-study-autonomous-vehicle-dark-skin 참고문헌: https://arxiv.org/pdf/1902.11097.pdf 미국 조지아공대 연구에 따르면 자율주행차는 어두운 피부색을 가진 보행자를 감지하기 어려워 안전 문제 우려가 있음. 객체감지 기술의 훈련 데이터가 밝은 피부색에 치우쳐져 있어 어두운 피부색 감지 정확도가 낮아진 것으로 나타남. 인종적 편향 최소화를 위한 기술 발전이 필요하다는 경고가 나옴.
과학기술발전 2019.03.12 조회수 391