관련 논문
*정책원 미소장 자료이며 관련 논문 소개 게시판입니다. 게시물 관련링크를 눌러 소속기관에서 열람가능한지 확인해주시기 바랍니다. lib@nibp.kr
글 수 4,668
발행년 : 2018 
구분 : 국내학술지 
학술지명 : 철학사상 
관련링크 : http://www.riss.kr/link?id=A105553624 
인공적 도덕 행위자 설계를 위한 고려사항

= Moral Considerations for designing an Artificial Moral Agent - Purpose, Moral Norm, and Action-Guiding

  • 저자[authors] 목광수(Kwangsu Mok)
  • 학술지명[periodical name] 철학사상
  • 권호사항[Volume/Issue] Vol.69No.-[2018]
  • 발행처[publisher] 서울대학교 철학사상연구소
  • 자료유형[Document Type] 학술저널
  • 수록면[Pagination] 361-391
  • 언어[language] Korean
  • 발행년[Publication Year] 2018
  • 주제어[descriptor] 인공적 도덕행위자,공통도덕,행위지침,중첩적 합의,artificial moral agent,common morality,action-guiding,overlapping consensus

초록[abstracts] 
[과학기술의 발전 과정에서 인간과 인공지능(artificial intelligence, 이하 AI) 또는 AI 로봇과의 상호작용이 확장되고 있으며, 이러한 과정에서 최근 들어 AI 또는 AI 로봇은 현실적 차원에서 도덕적 고려 대상이 되어가고 있다. 이러한 현실로 인해 연구되고 있는 AI와 관련된 도덕 논의 가운데, 현재 가장 많은 연구가 이루어지고 있는 영역 가운데 하나가 인공적 도덕 행위자 (artificial moral agent, 이하 AMA)에 대한 논의이다. 왜냐하면, 현재 인간과 사회적 관계를 맺게 될 AI 또는 AI 로봇에게 시급하게 요구되는 도덕적 고려사항은 AI 또는 AI 로봇이 인간을 도덕적으로 대우하게 만드는 것이기 때문이다. 따라서 본 논문의 목적은 AMA 설계를 위해 고려할 도덕 철학적 사항들이 무엇인지를 모색해서 제안하는 것이다. 본 논문은 AMA의 목적, 도덕규범, 행위지침이라는 형식적 구조에 맞춰 AMA가 설계되어야 한다고 분석한다. 이러한 형식적 구조 분석 아래, 본 논문은 현재 과학기술의 수준에서 고려할 AMA의 설계 목적은 인간과 같이 충분한(full-fledged) 도덕 행위자가 아닌 준(quasi)-도덕 행위자 구현이며 범용이 아닌 특정 영역의 특정 역할에 제한된 AMA 구현이어야 한다고 제안한다. 또한 본 논문은, 이러한 AMA는 다양한 도덕규범들 가운데 보편성 확보를 위해 제시된 공통도덕(common morality)의 중첩적 합의(overlapping consensus) 과정을 통해 제시된 8개의 도덕규범을 토대로 해당 영역에 맞게 구체화(specification)하고 재구성하여 설계되어야 하며, 이를 토대로 AMA의 목적과 관련된 해당 영역과 특정 역할의 특수성에 입각한 비중주기(weighing)를 통한 기본 알고리즘 설정과 사후 승인의 학습을 통해 추가되는 행위지침(action-guiding) 방식으로 설계되어야 한다고 제안한다.

In the development of artificial intelligence (hereafter, AI) and AI robot engineering, AI or AI robots are not anymore “merely” things, but are beings, which call for moral considerations. This is because interactions between humans and AI or AI robots are increasing ever more, and humans tend to consider them to be moral beings or quasi-moral beings. In this tendency, it is necessary to design AI or AI robots that interact with humans to be ethical or moral. The purpose of this paper is to search for moral considerations for designing an artificial moral agent(hereafter, AMA) and to suggest how this AMA should be designed. Based on my analysis, the structure of purpose, moral norms, and action-guiding should be considered in the design of an AMA with moral considerations. Based on this structure, I suggest that the purpose of the AMA design should be to achieve a quasi-AMA, the level of which is an explicit ethical agent rather than a full ethical agent such as humans. In addition, this quasi-AMA should be designed to act in a specific-domain, but not in general areas as humans do. I also suggest that we should design the AMA according to 8 rules of common morality, which are selected from among established theories of common morality through John Rawls’s method of overlapping consensus and give the AMA a strategy to integrate the “specification” of common morality and “balancing and weighing” to strengthen casuistic reasoning for action-guiding. This strategy of action-guiding is to program the AMA so that it basically weighs moral norms according to the specification of common morality and learns how to weigh a specific action-guiding through the later ratification of an accomplished action.]

목차[Table of content] 
요약문  Ⅰ. 들어가는 글  Ⅱ. AMA 설계를 위한 목표 수준(level)과 활동 범위(scope)  Ⅲ. AMA 제작을 위해 고려할 것들  Ⅳ. 나오는 글  참고문헌  ABSTRACT  

List of Articles
번호 제목 발행년 조회 수
공지 ! 논문 정보 제공 게시판입니다.   11453