본문

구글, 까다로운 인공지능윤리로 사람들을 돕겠다고 제안

과학기술발전

등록일  2020.09.01

조회수  337

※ 기사. Google Offers to Help Others With the Tricky Ethics of AI

https://www.wired.com/story/google-help-others-tricky-ethics-ai/

 

기업은 자체적인 디지털인프라를 운영하지 않기 위하여 아마존, 마이크로소프트, 구글과 같은 클라우드업체에 엄청난 돈을 지불함. 구글의 클라우드부서는 조만간 고객들에게 중앙처리장치 및 디스크드라이브보다 실체가 덜 확실한 무언가(인공지능 이용의 옳고 그름)를 외부에 위탁하도록 정식으로 요청할 것임.

 

구글은 올해 말 이전에 새로운 인공지능윤리서비스를 시작할 계획임. 처음에는 컴퓨터시스템 내의 인종편향과 같은 과업에 관하여 조언하거나 AI사업을 규율하는 윤리적인 지침을 개발하려고 함. 장기적으로는 고객의 인공지능시스템이 윤리적으로 온전한지 감사하고, 윤리적으로 자문하려고 함.

 

구글의 새로운 서비스는 수익성이 좋지만 불신도 쌓여만 가는 산업이 윤리적인 충고에 의하여 사업 활성화가 가능한지 시험할 것임. 아마존, 마이크로소프트에 이어 클라우드시장에서 업계 3위인 구글은 인공지능 전문성을 경쟁력 있는 장점으로 내세워 홍보함.

 

구글은 인공지능윤리라는 가르침을 자체적인 논란거리로 어렵게 배움. 2015년 구글은 한 이용자가 흑인 친구와 함께 찍은 사진에 고릴라라는 꼬리표가 붙었다고 보고하자, 사과하고 해당 포토어플을 차단함. 2018년에는 구글 직원 수천명이 자사 기술을 드론 감시영상을 분석하는데 이용하는 펜타곤 계약에 항의함.

 

얼마 후 구글은 인공지능기술 사용에 대한 일련의 윤리원칙을 배포했고, 더 이상 유사한 사업에서 경쟁하지 않을 것이라고 밝혔지만, 모든 방위산업을 배제하지는 않음. 같은 해 구글은 중국의 독재적인 검열을 수락하도록 설계된 검색엔진 버전을 시험한 것을 인정했고, 업계 라이벌(마이크로소프트와 아마존)처럼 남용 위험 때문에 얼굴인식기술을 제공하지 않겠다고 밝힘.

 

구글의 투쟁은 기술자들 사이의 인공지능이 세상에 도움이 될 뿐만 아니라 위해를 끼칠 수도 있다는 폭넓은 판단(reckoning)의 일부임. 예를 들어 얼굴인식시스템은 흑인에 대해 덜 정확한 때가 종종 있고, 텍스트소프트웨어는 고정관념을 강화할 수 있음. 동시에 규제자들, 입법가들, 시민들은 기술이 사회에 미치는 영향에 대하여 더욱 의심함.

 

구글 클라우드부서 인공지능전략 담당자 Tracy Frey는 이와 같은 경향이 구글에 강력한 인공지능을 의존하는 고객들에게 윤리적인 도움도 요청하도록 했다고 밝힘. “기술의 세계는 내가 할 수 있으니까 구축하겠다에서 구축을 해야 하나?’로 바뀌고 있다고 설명함.

 

구글은 이미 그렇게 생각하는 글로벌대형은행(HSBC)과 같은 일부 고객들을 돕고 있음. 지금은 정식 인공지능윤리서비스 출시를 올해 말 이전으로 목표하고 있음. Frey는 처음 부분은 인공지능시스템의 윤리적인 문제를 발견하는 방법, 인공지능윤리지침 개발과 시행과 같은 주제를 다루고 있다고 말함. 이후 구글은 고객의 인공지능사업을 검토하거나 감사하는 컨설팅서비스를 제공할 것임. 일례로, 대출알고리즘이 특정 인구통계학적 집단에게 편향되어 있는지 확인하는 것을 말함. 구글은 이러한 서비스의 일부에 요금을 부과할 것인지 아직 결정하지 않았음.

 

구글, 페이스북, 마이크로소프트는 개발자들이 본인의 인공지능시스템의 신뢰성과 공정성을 확인하는데 사용할 수 있는 모든 기술적인 도구를 출시했고, 대부분 무료임. IBM은 지난해에 공정성 확인버튼이 포함된 도구를 출시함. 시스템의 산출물이 민족성, 우편번호와 같은 속성과 잠재적으로 문제를 일으킬 만한 상관관계를 보여주는지 확인할 수 있음.

 

고객들을 돕기 위하여 한 단계 더 나아가면, 인공지능이 제기하는 자체적인 윤리적인 문제에 대한 윤리적인 한계를 정의할 수 있음. Frey우리가 도덕을 집행하는 경찰처럼 들리지 않는 것이 우리에게는 매우 중요하다고 밝힘. 그녀의 팀은 고객들의 선택에 대하여 지시하거나 책임지지 않으면서 어떻게 윤리적으로 조언할지에 관한 업무를 하고 있음.

 

산타클라라대(Santa Clara University) 응용윤리센터 기술윤리 담당자 Brian Green인공지능으로 돈을 벌려는 회사가 기술 억제에 관한 최선의 도덕적 멘토는 아닐 수도 있다는 점이 과제라면서 합법적으로 돈을 버는 것은 윤리와 양립할 수 있지만, 때로는 가장 윤리적인 방향으로 가지 않는 결정을 내리게 할 수도 있다고 말함.

첨부파일
이미지 [메인사진]국가생명윤리정책원.PNG (43.7KB / 다운로드  31)
이전 글
다음 글