관련 논문
*정책원 미소장 자료이며 관련 논문 소개 게시판입니다. 게시물 관련링크를 눌러 소속기관에서 열람가능한지 확인해주시기 바랍니다. lib@nibp.kr
글 수 4,668
발행년 : 2019 
구분 : 국내학술지 
학술지명 : 哲學硏究 
관련링크 : http://www.riss.kr/link?id=A106059056 
인공지능의 도덕적 지위와 관계론적 접근
= The Moral Standings of Artificial Intelligence and A Relational Approach

  • 저자[authors] 신상규

  • 학술지명[periodical name] 哲學硏究

  • 권호사항[Volume/Issue] Vol.149No.-[2019]

  • 발행처[publisher] 대한철학회

  • 자료유형[Document Type] 학술저널

  • 수록면[Pagination] 243-273

  • 언어[language] Korean

  • 발행년[Publication Year] 2019


다국어 초록[Multilingual Abstract]
This paper explores the possibility of emotional interactions and relationships between humans and machines, and suggests an approach to interpret and make sense of such experiences. Recognizing emotional interactions between humans and machines amounts to the acknowledgment of some kind of alterity relation to those machines. It is to give certain moral status to the machine. This paper examines two approaches to the moral status of emotional AI robots. The realist view, which is the standard position, asks whether AI robots actually possess emotion and consciousness, which are considered to be the relevant properties being to the moral status. According to realism, there is a correct answer to this question, which depends on whether AI robots actually have those properties, and the moral status of the AI robots is determined accordingly. This paper suggests the transition to a relational approach such as the one claimed by Mark Coeckelbergh, pointing out the limitations of applying realistic approach to AI robots. According to the relationalism, the moral status of an entity is constructed through our daily experiences practiced in our forms of life, prior to the categorization of science or philosophy. It is regarded as something that grows out of the concrete interactions and relations between humans and that entity. Changes in the moral status of any being can be understood as a process of growing relations, which is at the same time the growth of a new form of life.

국문 초록[abstracts]
본 논문은 인공지능 로봇을 중심으로 인간-기계 사이의 정서적 상호작용 및 감정적 관계의 가능성을 탐색하고 그러한 경험을 해석하고 의미화 할 수 있는 한 가지 접근 방법을 모색한다. 인간-기계 사이에 정서적 상호작용을 인정한다는 것은 기계에 대해 모종의 타자성 관계를 인정한다는 말이다. 이는 기계에게 일정한 도덕적 지위를 부여하는 일이다. 본 논문은 감정 로봇의 도덕적 지위와 관련하여, 실재론과 관계론의 두 가지 입장을 살펴보고 평가한다. 표준적 입장이라고 할 수 있는 실재론적 견해는 감정이나 의식과 같은 도덕 지위와 유관한 속성을 AI로봇이 실제로 갖고 있느냐의 여부를 질문한다. 실재론의 입장에 따르면, 이 질문에는 AI 로봇이 해당 속성을 실제로 가지고 있느냐 여부에 따라 결정되는 올바른 대답이 존재하며, AI 로봇의 도덕적 지위는 그에 따라 객관적으로 결정된다. 이 논문은 실재론적 입장을 인공지능 로봇에게 적용하였을 경우에 생기는 한계와 문제점을 지적하면서, 마크 쿠헬버그(Mark Coeckelbergh)가 주장하는 관계론적 접근으로의 전환을 제안한다. 관계론에 따르면, 어떤 존재자의 도덕적 지위는 과학이나 철학의 범주화에 앞서 우리의 삶의 양식 속에서 실천되는 일상적 경험을 통하여 구성(construct)되는 것으로, 이는 인간과 해당 대상 사이의 구체적 상호작용이나 관계 맺기의 토양 위에서 자라나는 것이다. 그런 만큼 어떤 존재에게 일어나는 도덕적 지위의 변화도 새로운 삶의 양식의 발전과 동시에 일어나는 관계의 자람으로 이해될 수 있다.

List of Articles
번호 제목 발행년 조회 수
공지 ! 논문 정보 제공 게시판입니다.   11449
4568 9 보건의료 근거기반 요양병원 감염관리 가이드라인 수용개작 및 적용효과 / 김유정 2019  175
4567 18 인체실험 시험 불안과 임상진료시험성적과의 관련성 / 박경민 2019  105
4566 5 과학 기술 사회 인간과 인공지능의 공존 가능성에 대한 탐색: 책임의 윤리와 문학적 상상력 / 박소영 2019  323
4565 17 신경과학 온라인 자살예방 정보와 댓글 분석: 자살예방 정보의 순기능과 역기능 / 2019  118
4564 17 신경과학 정신건강사회복지사의 자살위기개입 업무수행 경험에 대한 연구 / 노승현 외 2019  411
4563 4 보건의료 철학 외국인 환자 간호에 대한 간호사의 문화역량 영향요인 / 안정원 외 2019  124
4562 20 죽음과 죽어감 완화의료 일당정액수가제 시행에 따른 진료비와 진료행태의 변화 / 임문남 외 2019  747
4561 20 죽음과 죽어감 자살예방을 위한 통합적 접근의 필요성 / 박은철 2019  213
4560 9 보건의료 보건의료관련 학과 간 환자안전 교육 / 하성민 외 2019  75
4559 9 보건의료 의료기관 종사자의 직무만족 및 직무성과에 미치는 직무스트레스 영향요인 / 김혜경, 김성수 2019  74
4558 20 죽음과 죽어감 청소년 자살률에 영향을 미치는 지역적 요인 / 박성준 2019  15988
4557 9 보건의료 병원 내 의료인 안전 향상을 위한 개념적 틀과 정책적 대응 / 강희정 2019  49
4556 14 재생산 기술 코호트 완결출산율 분석 결과와 시사점 / 신윤정 2019  74
4555 17 신경과학 국내 보건학 분야의 “정신 건강” 연구: 측정과 관점 / 임은정 2019  202
4554 9 보건의료 헬스케어와 보험업법상 쟁점 - 헬스케어서비스의 문제점과 해결방안 - / 김영국 2019  228
4553 9 보건의료 의사의 의료행위와 한의사의 한방의료행위의 범위와 한계 / 정규원 2018  107
4552 7 의료사회학 의학전문직업성의 관점에서 바라본 대한민국 의학드라마 속의 의사상 / 강석훈 2018  201
4551 1 윤리학 인공지능은 법의 제국의 왕자가 될 수 있는가 / 서치원 2018  113
4550 8 환자 의사 관계 정부 지원 환자안전 연구의 타당성 검토 / 이 원 외 2018  54
4549 9 보건의료 의약품부작용보고시스템 데이터베이스를 이용한 졸피뎀 약물 유해반응 실마리 정보 검출 / 한준우 외 2018  347