본문

윤리적인 인공지능, 가능할까?

과학기술발전

등록일  2019.03.06

조회수  679

인공지능 구축업체 클래리파이(Clarifai)가 미국 국방부와 협력한다는 기사가 나오고, 일부 직원들이 드론(drone; 원격조종항공기)으로 촬영한 영상을 분석하는 인공지능 구축 윤리에 의문을 제기하자, 업체 측은 민간인(civilians)과 군인(soldiers)의 생명을 구하는 사업이라고 밝힘.

 

이 업체의 대표(Matt Zeiler)우리의 임무는 인공지능을 끊임없이 개선하여 인류의 발전을 가속화하는 것이라면서 모든 사업이 윤리적으로 건전하다는 것을 보장하기 위한 새로운 관리직을 발표함.

 

정치적 활동가, 연구자 및 기자들은 인공지능의 증가에 대하여 우려를 표명하면서 편파적이고 기만적이고 악의적인 사용에 대하여 경고하고 있고, 이러한 기술을 구축하는 업체들은 이에 대응하고 있음. 구글(Google)과 마이크로소프트(Microsoft)와 같은 대기업부터 소규모 벤처기업(start-ups)에 이르기까지 많은 사람들이 시스템이 윤리적으로 설계되고 배치되도록 보장하기 위한 기업원칙을 만들고 있음. 이 원칙을 감독하기 위하여 윤리담당관이나 검토위원회를 설치하는 경우도 있음.

 

하지만 이러한 약속들을 궁극적으로 지킬 수 있을지에 대한 의문이 제기되면서 긴장감이 높아지고 있음. 기업은 노선을 바꿀 수 있고, 이상을 추구하는 것(Idealism)은 재정적인 압박에 굴복할 수 있음. 몇몇 정치적 활동가들, 심지어 일부 업체는 윤리적인 관행을 보장하기 위한 유일한 방법은 정부의 규제라고 주장하기 시작함. 마이크로소프트 대표(Brad Smith)상업적인 경쟁의 바닥까지 보고 싶지는 않다면서 법률이 필요하다고 밝힘.

 

클래리파이의 새로운 윤리직군(ethics position)은 전혀 구체화되지 않았음. 이 뉴욕시의 사업이 군사적 사용(military applications)과 얼굴인식서비스(Facial recognition services)에 더욱 박차를 가하면서, 일부 직원들은 자율무기를 이용한 전투(automated warfare)나 국가기관에 의한 국민 감시(mass surveillance)로 이어질 것을 점점 더 우려하고 있음. 지난 1월에는 사내 게시판에 본인들의 일이 어디를 향하고 있는지를 묻는 공개서한을 올림.

 

Zeiler 대표는 사내 회의를 통해 윤리담당관과 같은 직책은 이런 작은 회사에는 어울리지 않으며, 자사의 기술이 언젠가는 자율무기(autonomous weapons)에 기여할 것이라고 밝힘.

 

클래리파이는 사진과 동영상에서 물체를 즉시 인식하는 기술을 전문으로 함. 정책입안자들은 이를 이중이용기술(dual-use technology)’이라고 칭함. 한정판 가방을 식별하는 상업적인 사용뿐만 아니라 드론의 목표물을 확인하는 군사적인 응용도 가능하기 때문임.

 

이러한 기술과 빠르게 발전하는 인공지능은 운송, 보건의료, 과학적 연구를 향상시킬 수 있음. 동시에 국민 감시, 온라인 피싱 공격(phishing attacks; 개인정보를 알아내 그들의 돈을 빼돌리는 사기), 허위 보도(false news) 유포 등으로 이어질 수도 있음.

 

편향(Bias) 발견

 

기업과 정부가 이러한 인공지능을 배치함에 따라 연구자들은 일부 시스템이 편향되어 있다는 것을 깨닫고 있음. 예를 들어 얼굴인식서비스는 여성이나 피부색이 어두운 사람을 식별할 때 덜 정확할 수 있음. 다른 시스템은 과거에 본 적이 없는 안전 취약점(security holes)을 포함할 수도 있음. 연구자들은 무인자동차(driverless cars; 자율주행차)가 실제로 존재하지 않는 것들을 보도록 속일 수 있다는 것도 보여준 바 있음.

 

이 모든 것은 윤리적인 인공지능을 구축하는 것이 대단히 복잡한 작업이라는 것을 의미함. 이해관계자들이 지켜보는 사람(beholder)의 눈앞에 윤리가 있다는 것을 깨닫게 되면 더욱 어려워짐.

 

마이크로소프트의 일부 직원들이 자사의 군사계약에 항의하자, Smith 대표는 미국 기술업체들이 오랫동안 군을 지원해왔으며, 앞으로도 계속 그렇게 해야 한다고 밝힘. “미군은 이 나라의 자유를 보호하는 임무를 맡고 있다면서 목숨을 위협받는 사람들을 지켜야 한다고 말함.

 

클래리파이의 일부 직원들은 자율무기로는 이어지지 않을 것이라며 윤리적인 선을 긋지만, 그렇지 않은 직원도 있음. Zeiler 대표는 자율무기가 인간이 조종통제하는 것보다 더 정확하기 때문에 궁극적으로 생명을 구할 것이라고 주장하면서, “인공지능은 무기의 정확성을 높여, 부수적인 피해를 줄이고, 민간인 사상자와 화재 사고를 최소화하기 위한 필수 도구라고 밝힘.

 

구글은 클래리파이처럼 펜타곤프로젝트를 진행했는데, 직원들의 항의를 받아, 결국 더 이상 관여하지 않음. 그러나 다른 20개의 업체는 클래리파이와 마찬가지로 윤리적인 우려에 굴하지 않고 이 프로젝트를 진행해 옴.

 

펜타곤프로젝트를 둘러싼 논란 이후로 구글은 장래의 사업에 대한 지침인 인공지능 원칙(principles)’을 마련함. 하지만 사내 규정이 마련되어도 일부 직원들은 반발하며 회사를 떠남. 원칙은 해석하기에 따라 다르며(open to interpretation), 회사의 재정적인 이익도 옹호해야 하는 임원들이 감독하기 때문임. 작년 말 퇴사한 직원(Liz Fong-Jones)고양이에게 생선을 맡기는 격(the foxes are guarding the henhouse)”이라고 표현함.

 

구글은 2014년 세계에서 가장 중요한 인공지능연구소인 딥마인드(DeepMind)를 인수하면서, 딥마인드의 연구가 군사어플리케이션 등 비윤리적인 사업에 사용되지 않도록 보장하는 외부검토위원회를 설치하기로 함. 하지만 5년이 지난 지금도 그 위원회는 설치여부조차 분명하지 않음.

 

구글, 마이크로소프트, 페이스북(Facebook) 등 업체들은 인공지능에 대한 전체 사업의 실무를 안내하는 것을 목표로 하는 연합체(Partnership)같은 기구를 창설함. 그러나 그 기구는 대체로 권한이 없음(largely toothless).

 

직원들이 반대의사를 공개적으로 밝힘(Speak Out)

 

가장 중요한 변화는 구글처럼 직원들의 항의, 학자 및 독립적인 전문가들의 연구에 의하여 탄력을 받음. 아마존(Amazon) 직원들이 경찰서에 얼굴인식서비스 판매에 대하여 항의하고, 다양한 학술 연구가 이러한 서비스를 괴롭히는(plague) 편향을 부각시키면서, 아마존과 마이크로소프트는 이 분야에 대한 정부의 규제를 요구함.

 

인공지능의 사회적인 영향을 조사하는 연구소(AI Now Institute)의 공동설립자(Meredith Whittaker)사람들이 문제가 있고, 이를 바꾸기를 원한다고 인식하고 있다고 밝힘. 하지만 자본주의의 힘은 기업이 더 큰 이익을 추구하도록 유도하기 때문에 이러한 변화가 더디다고 덧붙임.

 

클래리파이의 직원들은 얼굴인식기술이 궁극적으로 자율무기로 이어지고, 이러한 기술의 결함은 판도라의 상자를 열 것이라고 우려함. “산업 내에서 기술은 원칙을 굽힐 것이라면서 해커는 해킹할 것이고, 편향은 피할 수 없다고 밝힘. 산업계의 인공지능 연구자 수천 명은 자율무기를 반대하는 별도의 공개서한에 서명함.

 

미국 국방부는 구글과 클래리파이와 같은 업체에서 만든 인공지능이 공격 목적으로는 사용되지 않았다고 밝힘. 최근 몇 년 동안 세계 최고 수준의 연구원들을 잃어버린 산업계에 대한 지원이 필요하다는 것을 깨닫고, 현재 독자적인 윤리원칙을 세우고 있음.

 

하지만 많은 정책전문가들은 이러한 원칙이 대기업에서 마련한 것보다 더 큰 영향력을 갖지는 못할 것으로 내다봄. 미국 국방부는 비슷한 기술을 개발하는 중국, 러시아 등 경쟁국과 보조를 맞추려는 의욕이 강하기 때문임. 이러한 이유로 일부에서는 자율무기 사용을 금지하는 국제협약까지 요구하고 있음.

 

규제가 답일까?

 

클래리파이 직원들은 공개서한을 통해 즉각적인 책임은 업체가 지게 된다고 주장하면서, 규제가 인공지능을 둘러싼 많은 윤리적인 문제에 대한 해답인지를 확신할 수 없다고 밝힘. “규제는 진보를 늦추는데, 우리 종족은 오늘날 당면한 위협으로부터 살아남기 위하여 진보가 필요하다면서 우리 스스로 이 기술을 만들어내는 것에 대하여 신뢰할 수 있을 만큼 윤리적이어야 하며, 국민들에게 우리의 윤리를 명확하게 알릴 의무가 있다고 강조함.

 

그러나 그들의 서한은 바람직한 효과를 거두지 못함. Zeiler 대표가 자사의 기술이 자율무기에 기여할 것이라고 설명한 며칠 뒤 윤리자문가(ethics adviser)로 채용된 직원(Liz O’Sullivan)이 회사를 떠남.

 

연구자들과 정치적 활동가들은 기술직 직원들이 본인의 힘을 이용하여 변화를 이끌어낼 때라고 보고 있음. 그러나 그들은 이러한 일이 외부 기술업체에서도 일어나야 한다고 밝힘.

 

Whittaker우리는 규제가 필요하다면서, 마이크로소프트 기업법무최고책임자의 이름을 들먹이기(name-dropping) 전에 마이크로소프트 Smith 대표조차 우리에게 규제가 필요하다고 말한다고 밝힘.

 

기사 및 사진 : https://www.nytimes.com/2019/03/01/business/ethics-artificial-intelligence.html

 

첨부파일
이미지 해외언론동향_20190307.png (126.6KB / 다운로드  61)