총 31 건
총 31 건
보건의료 인공지능이 실수했을 때 책임은 누가 지는가?
※ 기사. When AI in healthcare goes wrong, who is responsible? https://qz.com/1905712/when-ai-in-healthcare-goes-wrong-who-is-responsible-2/ ※ Harvard Journal of Law & Technology https://jolt.law.harvard.edu/assets/articlePDFs/v31/The-Artificial-Intelligence-Black-Box-and-the-Failure-of-Intent-and-Causation-Yavar-Bathaee.pdf ※ AMA Journal of Ethics https://journalofethics.ama-assn.org/article/are-current-tort-liability-doctrines-adequate-addressing-injury-caused-ai/2019-02 인공지능은 암을 진단하고 자살을 예측하고 수술을 돕는데 이용될 수 있음. 이 모든 사례에서 인공지능이 인간 의사들보다 정해진 과업으로 더 나은 결과를 낸다고 암시하는 연구결과도 나와 있음. 그런데 뭔가 잘못되면 누가 책임질까? 미국 캘리포니아폴리테크닉주립대(California Polytechnic State Univ...
과학기술발전 2020.10.05 조회수 1632
자폐증 어린이가 상대의 얼굴 표정을 읽을 수 있도록 도와주는 인공지능
※ 기사. https://www.reuters.com/article/us-health-autism-wearables/google-glass-helps-kids-with-autism-read-facial-expressions-idUSKCN1R72O3?feedType=RSS&feedName=healthNews, https://www.nbcnews.com/health/kids-health/google-glass-offers-hope-kids-autism-n896771 참고문헌: https://jamanetwork.com/journals/jamapediatrics/fullarticle/2728462 Superpower Glass라고 불리는 이 시스템은 주변 사람들에게 무슨 일이 일어나는지를 판독하는데(decipher) 도움을 준다고 연구팀은 밝힘. 자폐증을 앓는 어린이들은 감정을 인식하고 반응하기 위해 고군분투하는데, 이 어플리케이션은 이러한 기술을 강화하는데 도움을 주기 위해 실시간으로 피드백을 제공함.
과학기술발전 2019.04.03 조회수 747
윤리적인 인공지능, 가능할까?
※ 기사. https://www.nytimes.com/2019/03/01/business/ethics-artificial-intelligence.html 클래리파이(Clarifai)는 미국 국방부와 협력하며 드론으로 촬영한 영상을 분석하는 인공지능을 제공하고 있습니다. 이에 일부 직원들은 이 기술이 군사적 용도에 사용될 때 윤리적인 문제를 제기하고, 회사는 민간인과 군인의 생명을 보호하는 목적이라고 주장합니다. 회사는 윤리적으로 건전한 사업을 위해 관리직을 새로 설정했지만, 일부 직원들은 자율무기나 국가 감시와 관련된 우려를 표명하고 있습니다. 이러한 논쟁은 인공지능 기술의 군사 및 윤리적 사용에 대한 국제적인 논의를 더욱 촉진하고 있습니다.
과학기술발전 2019.03.06 조회수 728
유럽의회는 인공지능, 암 대책, 외부 개입 위원회 위원으로 유럽의회 의원들을 임명함
※ 기사. European Parliament names MEPs on artificial intelligence, cancer plan and foreign interference committees https://sciencebusiness.net/news/european-parliament-names-meps-artificial-intelligence-cancer-plan-and-foreign-interference 새로운 위원회(artificial intelligence, cancer plan and foreign interference committees)는 EU의 대규모 암 정책, 첫 번째 AI 법을 향한 입법 경로 및 소셜 미디어에서의 잘못된 정보가 더 엄격한 통제를 요구하는 지 여부를 면밀히 조사할 것임 유럽 의회는 신설된 인공지능(AI), 암 그리고 민주적 절차에 따른 외부 개입 특별 위원회에서 활동할 유럽의회 의원들을 발표했음. 새로운 암 퇴치 위원회는 암을 예방하고 퇴치하는 데 도움이 되는 행동, 입법, 그리고 다른 조치들을 위한 영역을 확인하고, 관련 연구를 지원하는 최선의 방법을 모색할 것임 AI 대책...
과학기술발전 2020.07.17 조회수 580
연구윤리가 중국에서 국가차원의 정치적 의제로 부상함
※ 기사. https://www.universityworldnews.com/post.php?story=20190307200925304 참고문헌: http://www.nibp.kr/xe/news2/130213 미국 애리조나주 검찰청이 2018년 Uber의 자율주행차 사고에 대한 형사적인 책임을 Uber에게 물어내지 않을 결정을 내렸다. 이 사고는 자전거를 탄 여성이 Uber의 자율주행 SUV에 치여 사망한 사건으로, 검찰청은 Uber에 형사적인 고발 근거가 없다고 밝혔다. 사고 당시 자율주행시스템은 충돌 6초 전에 보행자를 감지했지만 비상정지 기능이 작동하지 않도록 설정돼 있었고, 운전자는 충돌 1초 전에 방향을 틀었으나 긴급 브레이크를 밟지 않았다. 이 결정은 자율주행차의 안전 문제와 책임에 대한 논란을 더욱 고조시키고 있다.
생명윤리 2019.03.13 조회수 445
[오피니언] 의학에서 인공지능은 법률적이고 윤리적인 우려를 불러일으킴
※ 기사. https://theconversation.com/artificial-intelligence-in-medicine-raises-legal-and-ethical-concerns-122504 의학에서 인공지능을 이용하는 것은 치료의 진보에 대한 엄청난 기대와 희망을 발생시킴. ☞ 우리가 컴퓨터 알고리즘에서 배운 7가지 : https://www.pewresearch.org/fact-tank/2019/02/13/7-things-weve-learned-about-computer-algorithms/ ☞ 기계학습, 유방 조기검진 MRI, 유방암환자의 항암치료 효과에 관한 저널 : https://www.ncbi.nlm.nih.gov/pubmed/30358693 그러나 의학에서 인공지능은 법률적이고 윤리적인 과제를 제기함. 프라이버시 침해, 차별, 정신적인 위해, 의사-환자관계 저하 등임. 필자는 정책결정자들이 유전자검사가 흔해질 때 그랬던 것처럼 인공지능과 관련된 많은 안전장치를 구축해야 한다고 주장함. ☞ 유전자검사가 예측적인 건강분석규정에 미친 영향에 관한 저널 : https:/...
과학기술발전 2019.09.11 조회수 363
인공지능이 보건의료를 혁신한다 … 부상자 분류, 신생아 모니터링, 간질 케어플랜 등 [2월 13일]
※ 기사. http://www.irishtimes.com/life-and-style/health-family/the-artificial-intelligence-revolutionising-healthcare-1.2964342 인공지능은 다양한 분야에서 보건의료를 혁신하고 있고 이전에는 상상만 했던 일들이 현실이 되고 있음. 대표적인 사례로 영국 국민건강보험이 현재 시험 중인 모바일 부상자 분류 스마트폰 앱, 간질 환자의 유전체 염기서열분석을 진행하여 의사들에게 그 정보를 전달해주는 프로젝트, 아일랜드의 새로운 모니터링 기술(아기 침대에 장비를 장착하여 아기의 호흡수, 심박동, 체온을 모니터링하는 기술), ‘TickerFit’ 앱이 있으며 환자가 스스로 관리를 잘하게 돕는 인공지능, 멀리 떨어진 환자를 잘 진료할 수 있게 돕는 인공지능도 있음.
과학기술발전 2017.02.13 조회수 356
딥마인드(DeepMind) 인공지능, 이틀 전 신장기능상실 예상
※ 기사. https://www.statnews.com/2019/07/31/deepmind-artificial-intelligence-predicts-acute-kidney-injury/ 참고문헌: https://www.nature.com/articles/s41586-019-1390-1 연구진은 nature 저널에 게재된 논문을 통해 수십만 개의 데이터를 고속으로 처리할 수 있는 기계학습시스템은 전자의무기록 내에서 임박한 위기를 의사에게 발생하기 전에 경고해줌. 연구진은 의사들이 환자의 경과에 미치는 영향을 완전하게 평가할 수 있도록 이 시스템이 임상현장에서 검증되어야 한다고 강조함. 그러나 초기 성공이 전자의무기록에 입원환자의 일련의 위기(심장마비, 폐렴, 패혈증 등)를 예측하는데 도움이 되는 알고리즘을 적용할 수 있는 미래로 이어질 가능성을 암시한다고 밝힘.
과학기술발전 2019.08.09 조회수 342
구글, 까다로운 인공지능윤리로 사람들을 돕겠다고 제안
※ 기사. Google Offers to Help Others With the Tricky Ethics of AI https://www.wired.com/story/google-help-others-tricky-ethics-ai/ 기업은 자체적인 디지털인프라를 운영하지 않기 위하여 아마존, 마이크로소프트, 구글과 같은 클라우드업체에 엄청난 돈을 지불함. 구글의 클라우드부서는 조만간 고객들에게 중앙처리장치 및 디스크드라이브보다 실체가 덜 확실한 무언가(인공지능 이용의 옳고 그름)를 외부에 위탁하도록 정식으로 요청할 것임. 구글은 올해 말 이전에 새로운 인공지능윤리서비스를 시작할 계획임. 처음에는 컴퓨터시스템 내의 인종편향과 같은 과업에 관하여 조언하거나 AI사업을 규율하는 윤리적인 지침을 개발하려고 함. 장기적으로는 고객의 인공지능시스템이 윤리적으로 온전한지 감사하고, 윤리적으로 자문하려고 함. 구글의 새로운 서비스는 수익성이 좋지만 불신도 쌓여만 가는 산업이 윤리...
과학기술발전 2020.09.01 조회수 339
인공지능이 개발한 의약품이 처음으로 인간에게 적용될 예정임
※ 기사. https://www.bbc.com/news/technology-51315462 지난 1월23일 Cell地에 발표된 연구에 따르면, Mount Sinai의 Seaver 자폐연구치료 센터장인 Joseph Buxbaum 박사가 이끄는 연구진은 더 앞선 유전자 염기서열 분석 기법과 자폐증 환자로부터 얻은 DNA 샘플 데이터베이스 중 하나를 이용하여 이전에는 질환과 관련이 없었던 30개를 포함한 자폐증과 관련된 102개의 유전자를 찾아냈음. 또한 이 연구는 자폐증과 밀접하게 관련된 유전자와 지적 장애와 운동 장애를 포함한 다른 신경 발달 장애에 관련이 있는 유전자를 구별했음. ☞ 저널 바로가기 : https://www.cell.com/cell/fulltext/S0092-8674(19)31398-4
과학기술발전 2020.02.10 조회수 338
인공지능이 환자진료를 향해 돌진함 – 그리고 위험성을 높임
※ 기사. https://www.scientificamerican.com/article/artificial-intelligence-is-rushing-into-patient-care-and-could-raise-risks/ 많은 보건산업전문가들은 인공지능이 환자를 위험에 빠뜨리고 있고, 규제당국이 소비자의 안전을 지키기 위하여 충분한 조치를 취하지 않는다고 지적함. 벤처회사(Venrock)의 전문가(Bob Kocher)는 “의료정보에 인공지능을 사용하는 것의 위험과 의도하지 않은 결과를 계속 발견하게 될 것”이라고 말함. ☞ 관련 저널 : https://www.nature.com/articles/s41591-018-0300-7 Topol은 미국에서 판매되는 인공지능제품 중 무작위임상시험을 거친 것은 없다고 말함. ☞ 관련 저널 : https://www.ncbi.nlm.nih.gov/pubmed/30814121 한 저널에 따르면 동료검토를 거치는 저널에 연구결과를 게재하는 업체는 거의 없다고 함. ☞ 관련 저널 : https://onlinelibrary.wiley.com/doi/full/...
과학기술발전 2020.01.09 조회수 325
환자가 언제 사망할지 기계가 알 수 있을까?
※ 기사. https://www.wired.com/story/book-excerpt-machine-learning-medicine-predictions/ 참고문헌 : https://www.ncbi.nlm.nih.gov/pubmed/30537977 의사-환자관계의 변화와 인공지능의 역할에 대한 이야기를 서술하고 있음. 한 노인의 예시를 통해 삶의 마지막 단계와 완화의료에 대한 이야기가 포함됨. 미래에는 인공지능이 환자의 사망 시점을 정확하게 예측하고 의료 결정에 도움을 줄 수 있을 것으로 전망되지만, 이에 대한 윤리적인 고려와 인간적인 가치에 대한 고민도 함께 제기되고 있음.
과학기술발전 2019.03.20 조회수 314
미국 FDA가 의학적 결정을 스스로 내리는 AI(인공지능)에 대한 문을 열었음 [4월 16일]
※ 기사. https://qz.com/1251502/the-fda-just-opened-the-door-to-let-ai-make-medical-decisions-on-its-own/ 참고문헌: https://www.fda.gov/NewsEvents/Newsroom/PressAnnouncements/ucm604357.htm 미국 FDA(식품의약품안전청)은 지난 주 의료영상을 판독하기 위한 인공지능 소프트웨어를 처음으로 허가함. 소프트웨어 이름은 IDx-DR. 망막 영상을 분석하여 당뇨병 환자가 당뇨병성 망막증이라는 합병증을 앓고 있는지를 알아냄. FDA 보도자료에 따르면 “IDx-DR은 임상의사 없이도 영상이나 결과를 판독할 수 있는 소프트웨어를 시판 허용한 첫 사례”라면서 “일반적으로 안과 치료를 제공하지 않는 의원에 있는 보건의료종사자들이 사용할 수 있다”고 밝힘.
과학기술발전 2018.04.16 조회수 305
전 세계의 위험을 완화시키고, 보건의료를 증진하기 위한 세계보건기구(WHO)의 인공지능(AI) 지침
※ 기사 [WHO guidance on Artificial Intelligence to improve healthcare, mitigate risks worldwide] https://news.un.org/en/story/2021/06/1094902 ※ 가이드라인 [Ethics and governance of artificial intelligence for health] https://www.who.int/publications/i/item/9789240029200 세계보건기구(이하 WHO)의 사무총장인 테워드로스 아드하놈 거브러이여수스(Tedros Adhanom Ghebreyesus)는 “모든 새로운 기술과 마찬가지로 인공지능(이하 AI)도 오용되고 해(harm)를 끼칠 수 있다.”라고 말했다. WHO는 건강을 위해 본질적인 AI 기회를 극대화하고 위험을 통제하는 6가지 원칙을 제시하는 새로운 지침을 발표하였다. 가이드라인 원칙 (Guiding principles) 첫째 원칙은 사람들이 보건의료 시스템과 의료결정을 계속 지배해야하기 때문에, 인간의 자율성을 보호하는 것이다. 둘째 원칙은 AI 설계자는 적...
기타 2021.07.09 조회수 283
[오피니언] 인공지능이 보건의료를 혁신하려면 환자의 목소리가 필요함
※ 기사. https://www.statnews.com/2019/09/30/artificial-intelligence-patients-voices/ 참고문헌1: https://time.com/5650360/artificial-intelligence-health-care/ 참고문헌2 : https://www.nature.com/articles/s41746-019-0155-4 보건의료인공지능업체들은 현재 전자의무기록데이터를 이용하여 제품을 생산하고 있음. 그러나 전자의무기록은 의사와 환자의 상호작용 중 환자들의 불만, 걱정, 경험을 거의 포함하지 못 함. 인공지능이 보건의료를 개선할 수 없다는 의미는 아님. 인공지능이 다루는 데이터가 환자와 의사의 목소리를 포함하고 있는 한 반드시 가능함. 필자의 목표는 대화를 배우는 것임. 환자가 의사에게 문구를 보내고 의사가 문구로 답하는 시스템은 양 측의 목소리를 전자의무기록은 할 수 없는 방식으로 포착함. 이것이 가능해지면 환자 진료를 실제로 변화시킬 수 있는 클러스터맵(cluster maps)...
과학기술발전 2019.10.10 조회수 264
인공지능이 의사를 도울 수 있다는 것을 보여주는 연구결과가 나옴
※ 기사. https://www.nytimes.com/2019/02/11/health/artificial-intelligence-medical-diagnosis.html 참고문헌: https://www.nature.com/articles/s41591-018-0335-9 미국과 중국의 한 연구진이 의사의 약점을 인공지능(artificial intelligence)으로 보완할 수 있는지 실험했고, Nature Medicine 저널에 이를 게재함. 연구진은 환자의 증상, 병력, 검사결과, 임상자료를 처리한 후 인플루엔자부터 뇌수막염까지 흔한 소아질환을 자동으로 진단하는 시스템을 구축했다고 함. 이 시스템은 매우 정확했고, 언젠가 의사들이 복잡하거나 희귀한 상태를 진단하는데 도움이 될 것으로 기대한다고 밝힘.
과학기술발전 2019.02.19 조회수 260
페이스북 인공지능이 자살위험성이 높은 사람을 찾아냄 [3월 3일]
※ 기사. http://www.bbc.com/news/technology-39126027 페이스북은 자살 예방을 위해 포스트와 코멘트에서 자해 가능성을 감지하는 인공지능 알고리즘을 도입했다. 이 알고리즘은 위험 신호를 감지하면 이용자를 자살예방기관과 연결시키는 조치를 취한다. 미국 내에서는 이미 해당 서비스가 제공되고 있으며, 향후 전 세계로 확대될 계획이다. 또한 페이스북은 생방송 중인 이용자에게도 도움 메시지를 전송하는 기능을 추가할 예정이다.
과학기술발전 2017.03.03 조회수 253
인공지능이 시력을 잃을 위험에 처한 신생아를 발견하는데 도움을 준다는 연구결과가 나옴
※ 기사. https://medicalxpress.com/news/2020-03-ai-newborns-severe-disease.html 신생아에게 AP-ROP(미숙아망막병증) 위험이 있는지 식별하는데 도움을 주는 인공지능기기(i-ROP DL)에 대하여 임상시험이 진행되고 있음. 이는 최근 FDA의 신속한 심사를 받는 브레이크쓰루(breakthrough) 대상으로 지정을 받음. ☞ FDA 패스트트랙제도와 브레이크쓰루제도를 설명한 국내 기사 : http://www.dt.co.kr/contents.html?article_no=2018030502103476029001&ref=naver ☞ ROP(미숙아망막병증)에 관한 국가건강정보포털 의학정보 : https://terms.naver.com/entry.nhn?docId=2119985&cid=51004&categoryId=51004 AP-ROP는 전형적인 ROP보다 그 특징이 더 미묘하고 알아보기 어려울 수 있기 때문에 진단하기가 쉽지 않을 수 있음. 이전까지 망막손상(AP-ROP)에 초점을 맞춘 연구는 없었음. 이에 연구팀은 자동화된 딥러...
과학기술발전 2020.03.12 조회수 244
인간다움과 윤리는 인공지능기술의 중심에 있어야 한다고 교황이 말함
※ 기사. https://catholicphilly.com/2020/02/news/world-news/humanity-ethics-must-be-at-center-of-ai-technology-pope-says/, https://www.bbc.com/news/technology-51673296 생명과학원은 ‘로봇윤리: 인간, 기계와 건강’을 주제로 2월 25일부터 26일까지 개최한 워크숍을 후원함. 2월 26일부터 28일까지 이어서 진행된 교황청 총회에서는 인공지능 사용에 필요한 과제와 보호장치, 인공지능이 윤리, 법적 권리, 보건의료분야에 미치는 영향을 연구하는데 전념함. 여기서 프란치스코 교황(Pope Francis)은 과학과 의학에서 인공지능을 사용할 경우 윤리적 기준과 공익의 추구를 우선하도록 안내해야 한다고 말함. 교황은 생물과학에서 인공지능 이용이 증가하는 것에 대하여 우려를 표하고, 생존하는 삶과 경험하는 삶 사이의 연관성과 통합성이 기능적 성능과 지속가능한 비용의 단순한 이념적 계산에 찬성...
과학기술발전 2020.03.04 조회수 236
[오피니언] 인공지능 개발계획을 점검하기 위한 윤리위원회 구성
※ 기사. https://hbr.org/2019/11/create-an-ethics-committee-to-keep-your-ai-initiative-in-check?mod=djemAIPro 참고문헌: https://www.accenture.com/us-en/insights/software-platforms/building-data-ai-ethics-committees 인공지능을 이용하는 조직은 강력한 조직 전반의 가치가 책임지는 혁신을 조성하는데 역할을 해야 한다고 인식하기 시작함. 이는 평등에 대한 책임, 윤리적이고 인간적인 사용에 대한 책임이라는 두 가지 역할을 생성하는 것을 우선함. 윤리위원회는 조직의 가치에 기초한 의도를 유지하는 것뿐만 아니라 그들이 인공지능을 어떻게 이용하는지에 대한 투명성을 높이는데 도움을 줌. 이 구역을 선도하기 위하여 조직은 성장하기 위한 세 가지 영역에 초점을 맞춰야 함. ◆ 윤리 및 인공지능에 대한 거버넌스 구축 ◆ 공평함을 언제 어떻게 발생시키는지, 무슨 편향을 어떻게 설명할 것인지 ◆ 즉각...
과학기술발전 2019.11.25 조회수 233