총 3 건
총 3 건
보건의료 인공지능이 실수했을 때 책임은 누가 지는가?
※ 기사. When AI in healthcare goes wrong, who is responsible? https://qz.com/1905712/when-ai-in-healthcare-goes-wrong-who-is-responsible-2/ ※ Harvard Journal of Law & Technology https://jolt.law.harvard.edu/assets/articlePDFs/v31/The-Artificial-Intelligence-Black-Box-and-the-Failure-of-Intent-and-Causation-Yavar-Bathaee.pdf ※ AMA Journal of Ethics https://journalofethics.ama-assn.org/article/are-current-tort-liability-doctrines-adequate-addressing-injury-caused-ai/2019-02 인공지능은 암을 진단하고 자살을 예측하고 수술을 돕는데 이용될 수 있음. 이 모든 사례에서 인공지능이 인간 의사들보다 정해진 과업으로 더 나은 결과를 낸다고 암시하는 연구결과도 나와 있음. 그런데 뭔가 잘못되면 누가 책임질까? 미국 캘리포니아폴리테크닉주립대(California Polytechnic State Univ...
과학기술발전 2020.10.05 조회수 1754
인공지능이 환자진료를 향해 돌진함 – 그리고 위험성을 높임
※ 기사. https://www.scientificamerican.com/article/artificial-intelligence-is-rushing-into-patient-care-and-could-raise-risks/ 많은 보건산업전문가들은 인공지능이 환자를 위험에 빠뜨리고 있고, 규제당국이 소비자의 안전을 지키기 위하여 충분한 조치를 취하지 않는다고 지적함. 벤처회사(Venrock)의 전문가(Bob Kocher)는 “의료정보에 인공지능을 사용하는 것의 위험과 의도하지 않은 결과를 계속 발견하게 될 것”이라고 말함. ☞ 관련 저널 : https://www.nature.com/articles/s41591-018-0300-7 Topol은 미국에서 판매되는 인공지능제품 중 무작위임상시험을 거친 것은 없다고 말함. ☞ 관련 저널 : https://www.ncbi.nlm.nih.gov/pubmed/30814121 한 저널에 따르면 동료검토를 거치는 저널에 연구결과를 게재하는 업체는 거의 없다고 함. ☞ 관련 저널 : https://onlinelibrary.wiley.com/doi/full/...
과학기술발전 2020.01.09 조회수 339
의료용 인공지능의 블랙박스 해독하기
※ 기사. https://undark.org/2019/12/04/black-box-artificial-intelligence/ 참고문헌: https://pubs.rsna.org/doi/10.1148/radiol.2019182716 참고문헌: https://www.bmj.com/content/364/bmj.l886.long 참고문헌: https://www.sciencedirect.com/science/article/pii/S2589750019301232 연구자들 사이에 딥러닝 도구가 어떻게 결정하는지에 대한 요청과 해석가능성(interpretability)에 대한 논쟁이 증가하고 있음. -많은 기계학습 도구는 여전히 블랙박스이며, 최근 한 저널(BMJ Clinical Research)에는 블랙박스가 타당한 이유 없이 판결을 내린다는 지적이 실림. -일부 어플리케이션에서는 모델이 어떻게 작동하는지 이해하는 것이 중요함. -해석은 들어가는 데이터와 나오는 것 사이의 실제 연관성을 보여주지 않음. -컴퓨터과학자들이 딥러닝 도구가 어떻게 작동하는지 보여줄 방법을 찾더라도, 의사들은 그 설명이 ...
과학기술발전 2019.12.10 조회수 212