Engineers, coders – it’s down to you to prevent AI being weaponised

논평 논쟁은 다양한 인터넷 거인들의 전쟁에 대한 차세대 기술 제공에 대한 몇 개월 동안 격렬 해졌다 예를 들어, 3 월에 구글의 반대자들은 웹 골리앗과 미국 군대의 Project Maven 계약에 관한 언론에갔습니다

이 Maven은 무인 항공기를 물체 감지 AI와 함께 다른 것들과 조화시키는 것을 목표로합니다 이 미 국방부 프로젝트는 분명히 2017 년 4 월에 시작되었습니다 Google은 컴퓨터 비전 TensorFlow API가 "비 공격적인"목적으로 만 사용되었으며 Pentagon과의 Maven 계약에서 기술의 악의적 인 사용을 반복적으로 부인했습니다 3000 명 이상의 직원이 Google CEO Sundar Pichai에게 "Google은 전쟁의 비즈니스에 있어서는 안된다"는 공개 서한에 서명했습니다 세계의 학자들은 또한 구글이 프로젝트 작업을 중단 할 것을 촉구했다 비록 그 개입의 범위가 분명하지는 않지만 구글은 지난달에 함침했고, AWCFT (Algorithmic Warfare Cross-Functional Team)와의 계약을 갱신하지 않을 것이라고 말했다 또한 구글이 무기를 만들지 않겠다는 "AI 원칙"목록이나 "주요 목적을 가진 기술 사람들에게 상해를 입히거나 직접적으로 촉진시키는 것입니다

" 다른 사람들은 중요한 질문에 답을주지 않은 채로 남겨 두었다 무인 항공기 전쟁에 관한 토론에는 Google이 입찰을하기 전에 고려해 봤어야했던 몇 가지 기록이 있습니다 저는 2011 년부터 예멘과 파키스탄에서 무인 항공기 전쟁을 조사했습니다 무인 항공기에서 무고한 친척들을 잃은 민간인들을 대변했습니다 대중은 이러한 기술을 사용하고 사용하는 방법과 테러와의 전쟁이 벌인 곳에서 보이는 테러와의 전쟁에 대한 현실주의를 건강하게 필요로합니다 물론 블랙 박스 알고리즘이 잘못 될 수 있음을 처음 보았을 때 나는 예멘에 있었다는 것을 목표로 삼았습니다

2013 년에 무인 항공기 공격을 조사하고 증거를 수집하고 생존자와 인터뷰하기 위해 Sana'a 수도를 방문했습니다 DAt 원 포인트, 한 노인이 내게 다가갔습니다 그는 환경 공학자 인 Faisal bin Ali Jaber였습니다 그는 하드 드라이브에 2012 년 미국의 무인 항공기 파업에 관한 데이터를 친척 두 명에게 보냈습니다 그의 조카 인 Waleed는 경찰관이었습니다

그의 처남 인 Salem은 저명한 이맘이었습니다 살렘은 공격 전 며칠 전 알 카에다를 비난했다 둘 다 파업에서 사망했다 파이살은 대답을 원했다 왜 그의 가족이 공격을 받았습니까? 우리는 함께 워싱턴 DC로 7,000 마일을 여행하여 설명을 구했습니다

백악관 관료들은 파이살을 만났고 나중에 가족에게 현금으로 "조위"를 지불했지만 살렘과 왈 리드가 십자선에 걸린 이유는 결코 말하지 않았다 문제는 그 때도 분명했습니다 이것은 아마도 소위 "시그니처 스트라이크 (signature strike)"였을 것입니다 : 타겟의 신원은 알려지지 않았지만, 그들에 대한 감시 데이터는 목표 알고리즘에서 적기를 던졌습니다 인간이 미사일을 발사했지만 부분적으로는 소프트웨어의 권고에 따라 우리는 무기화 된 인공 지능이 의미하는 바에 불과하기 시작했습니다 AI가 누군가 선전에 나선다면 우리는 걱정합니다 부당한 체포로 이어질 때 우리는 조금 더 걱정합니다

Maven의 스테이크가 더 높습니다 Google은 Project Maven에 대한 기여를 옹호하면서 다음과 같이 말했습니다 "이 기술은 사람의 검토를 위해 이미지에 플래그를 지정하며 비 공격적인 용도로만 사용됩니다 "그렇게하기를 희망하지만 좋지만, 순진하다" "Collateral Murder"비디오를 본 사람이라면 누구나 구별 할 수있는 대상, 즉 총을 쏜 카메라가 타게팅의 핵심이다 타겟 획득은 항상 프로젝트 메이븐의 핵심이었습니다

Maven의 각서는 "첫 번째 과제는"ISIS 캠페인을 지원하기 위해 전술 무인 공중 시스템 및 MidAltitude Full-Motion 비디오에 대한 처리, 착취 및 보급을 증대 또는 자동화하는 것 " 그것은 군인입니다 – "AI는 무인 항공기를 검색하여 공격 대상을 찾습니다" 프로젝트 메이븐 (Project Maven)의 의장은 "인간과 컴퓨터는 무기 시스템의 능력을 높이기 위해 공생 적으로 작동하여 물체를 탐지 할 수있다"면서 "한 분석가는 두 배의 작업을 할 수 있으며 잠재적으로는 세 배의 작업을 할 수있다 그들은 지금하고있다 "미국은 기계 학습을 이용해 수년간 목표물을 추적 해왔다 구글 챙겨 먹었 더라면 테네시주의 살인자 컴퓨터 뒤에 SKYNET이라는 NSA 프로그램을 발견했을 것이다

파키스탄에서 테러 용의자를 찾는데 기계 학습을 사용했다고 주장했다 2012 년부터 SKYNET에 관한 NSA 슬라이드 데크는 Edward Snowden이 출연 한 계시 중 하나로서, 미국이 AI를 조종하기를 희망하는 곳을 정확히 알려줍니다 SKYNET은 카메라 영상을 스캔하지 않았습니다 Google의 두뇌가 오늘날 구축 할 수 있었던 것보다 가볍습니다 그러나 그 목적은 분명했습니다 슬라이드는 기계 학습을 사용하여 택배를 찾아 내고, 택배에서 대상을 설명합니다

이것은 질문을 제기합니다 SKYNET은 몇 개의 타겟을 선택 했습니까? 공격을당한 비율은 어느 정도입니까? 실수는 어떻게 발견되고 수정됩니까? 슬라이드는 말하지 않는다 언론인과 전문가들은 다르게 해석했다 그러나 우리는 목표 원 – 알 자지라의 아메드 자이 단 (Ahmed Zaidan) NSA 슬라이드는 그에게 "알 카에다 회원"이라고 표시합니다 Zaidan은 항상 투사들을 인터뷰했다

그의 승리였다 그러나 그가 테러리스트라고 제안 할 증거는 없다 이것은 현대 전쟁과 같습니다 : 공격 대상의 바늘에 신호 데이터의 건초 더미를 도려내 기 그러나 무인 항공기에서 사망 한 대부분의 사람들은 "서명 파업"으로 사망했습니다 미국은 그들이 누구인지 전혀 알지 못했습니다

미국은 "삶의 패턴"이 당신의 뒤를 향해 불스 아이를 칠하는 것을 설명하기를 거부하지만, 대부분의 남자들이 무장하고 저항 분자들이 민간인으로 짜여져 결혼 한 사회에서는 네트워크 분석이 항상 실수를 범할 것이다 인공 지능 전쟁의 지지자들은 이것이 단지 오래된 문제 일 뿐이라는 것을 암시합니다 : 전쟁의 안개 AI가 가능한 전투의 규모와 속도는 다릅니다 우리는 무인 항공기 전쟁에서 이미 이것을 알고 있습니다 : 위험이없고 푸시 버튼 방식의 공격 옵션으로 숙고가 더 어려워집니다 너무 늦을 때까지 오류가 누락됩니다 임기가 끝날 무렵, 오바마 대통령도 무인 항공기 기술이 법과 윤리보다 앞서 나가는 것을 받아 들였습니다 우리 군대, 인텔 정보 팀은이를 실제로 효과적이라고 생각했으며, 진행

목표는 다음과 같습니다 알 카에다에 합류하자 지도자를 얻자 여기에 훈련 캠프가있다 가치가있는 목표가있다

무인 항공기는 아직 자율적이지 않아 안심할 수 없습니다 그렇습니다 "인간은 순환하고 있습니다" 인공위성 동력 무기가 트럼프의 미국, 사이의 중국 또는 아사드의 시리아에 의해 동일하게 사용될 것이라고 상상 한 사람은 누구입니까? 우리는 무기화 된 인공 지능이 무엇을 의미하는지와 겨루기 시작했습니다 AI가 누군가 선전을 할 때 우리는 걱정합니다

부당한 체포로 이어질 때 우리는 조금 더 걱정합니다 Maven의 스테이크가 더 높습니다 윤리 Google의 계약직 지도력은 그들이 얻은 바에 대해 진정으로 우둔한 것이 었습니까? 진실은 복잡하다 구글의 사람들 중 일부는 계약에 대한 공개 토론을 전혀하지 않는 것보다 도덕적 균형에 대해 덜 우려하는 것 같았다 인공 지능의 윤리적 발전에 관해 글을 남긴 구글 AI 과학자 Fei-Fei Li는 일반 대중이 메이븐의 추진력을 얻지 못했다는 이메일을 보냈다

"모든 비용으로 AI에 대한 언급이나 암시를 피하십시오"라고 그녀는 말했습니다 "Weaponized AI는 아마도 AI에서 가장 민감한 주제 중 하나 일 것입니다 이것은 미디어에 붉은 고기가있어 Google을 손상시킬 수있는 모든 방법을 찾아 낼 수 있습니다 "Li 씨가 옳았습니다 소동으로 인해 Google에서 계약을 맺은 이유는 무엇입니까? 이야기가 깨지면 방어가 바뀌 었습니다

Google은 전쟁을 더 좋고 안전하게 만들 수 있습니다 "이 기술은 생명을 구하고 사람들이 매우 지루한 작업을하지 않아도되는 것을 방지하기위한 것"이라고 구글은 말했다 "와이어드 (Wired)의 편집장조차도 무인 항공기를 짓기위한 구글의"도덕적 주장 "을 샀다"미국 정부가 최고의 인공 지능을 갖는 것이 좋다 그들이 잘못 식별 할 때 부수적 인 피해를 줄 수있는 무인 항공기가 특히 많습니다

"Google Cloud CEO 인 다이앤 그린 (Diane Greene)은 이러한 방어를 되풀이했습니다"생명을 구하는 것은 가장 중요한 목표였습니다 "구글은 진실했다 그러나 누구의 삶이 절약되고 취해 졌는가? 이러한 방어선에 공통적 인 것은 한 가지 오류이다 : 미국은 기술적 인 실패로 민간인을 죽이고 민간인의 삶에는 무관심하지 않다 그러나 무인 항공기에서 사용 된 용어는 우리에게 더 잘 가르쳐줍니다 "Bugsplats"

"하늘 기수가" "재미있는 크기의 테러리스트" 이것은 군대 아이들의 느슨한 이야기가 아닙니다 "왜 기다렸 니?" 트럼프 회장입니다 무인 항공기 운전사가 표적의 아내와 아이들의 생명을 구하기 위해 몰두했다고합니다 숫자가이 부분을 지니고 있습니다 오바마 행정부의 무인 항공기 전쟁으로 수백명의 민간인이 사망했다

트럼프 대통령 (Trump) 대통령에 따르면, 작년에 이라크와 시리아에서만 6,000 명이 넘는 민간인 사망자가 발생했다 구글이 군사 계약에서 얼마나 후퇴했는지는 불분명하다 치명적이고 비 치사적인 지원 사이의 경계는 원칙에 대한 정의만큼 명확하지 않습니다 그리고 구글이 AI 원칙을 발표하기 직전에, 구글은 플로리다의 특수 부대 대회에서 그 기술을 압박했다 피치는 Google이 압수 한 랩톱 및 오픈 소스 자료에서 "귀중한 분류되지 않은 정보의 착취를 가속화"하도록 특수 부대 분석을 "능률화"할 수 있다고 말했다

그러나 한 기자가 지적했듯이, 그 모든 자료는 특수 작전이 목표물을 찾는 데 도움이 될 것입니다 Google은 의견 요청에 응답하지 않았습니다 일부 인공 지능 원칙을 설명하려는 Google의 노력은 환영합니다 그것은 AI의 관심사에 관한 중요한 공개 대화를 열었습니다 그러나이 원칙은 구글의 다른 성명서 나 전쟁의 무기로서의 AI의 잠재력이 분명하게 받아 들여지는 다른 관객들에게는 불편하게 남아있다

엔지니어들은 더 많은 힘과 책임감을 가지고 있음을 깨닫습니다 우리 모두 AI 사용 장소에 대한 토론에서 역할을해야합니다 그러나 가장 중요한 독자는 AI 개발자 및 엔지니어입니다 메이븐 (Maven)의 이야기는 여러 가지 교훈을 제공합니다 첫째, 이들은 기술적 인 문제가 아닙니다

그들은 정치적이다 그리고 도구가 판매되면 제조업체는 사용법에 대해 "반복적 인 인간"이라 할지라도 모든 사람이 기술을 윤리적으로 배치하지는 않습니다 둘째, AI의 위험성은 모든 사람에게 동일하지 않습니다 트럼프 이후 우리가 오지 않는 위기는 오웰 (Orwell)의 1984가 아니라고 말하는 것이 일반적입니다 헉슬리의 멋진 새로운 세계 AI는 "주의 위기"를 몰고있다

일부 사람들은 의미있는 논쟁에서 우리를 혼란스럽게하고있다 이것은 주로 부유 한 국가의 인구에 해당합니다 너와 나는 트위터에서 싸우고, 충동을 사거나, TED 토크 디스토피아로 묘사되는 것들을해라 오웰은 밖에있다 가난한 사람들, 외딴 사람, 비 – 백인 대량 데이터 시팅은 이미 우리 삶에서 엄청난 역할을하고 있으며, 더 커질 것입니다

그것이 공학과 컴퓨터 과학이 예전의 직업처럼 규제되어야한다고 말하는 이유입니다 : 의학과 법 지금까지 우리에게 필요한 것입니다 뜨거운 물에 AI 토지 개발자를 비 윤리적으로 사용할 수 있습니까? 확실한 폭스 바겐 사건은 그 맛을 보여줍니다 하지만 감옥에 갈 위험이없는 개발자조차도 평판과 사람들의 삶을 알고 균형을 유지해야합니다 Maven에 항의하는 서한에 3,100 명의 기술자가 서명했습니다 Google 직원 중 약 4 %가 Maven 계약을 맺고 종료했습니다

그것이 AI 윤리 토론을 해결할 수있는 것입니다 – 그들이 구축하고있는 것에 대해 생각할 수있는 코드 작성 도구가있는 사람들을 위해 인공 지능 개발자는 엄청난 힘을 가지고 있습니다 그들은 모바일, 탐낼 인구입니다 무기 및 감시 장비는 재능과 동의하에 만 건설 될 수 있습니다 그들이 선을 위해 힘을 발휘하기로 선택했다면, 그들은 무엇을 할 수 있는지를 압니까? ® Cori는 대량 데이터 분석 윤리에 관한 연구 및 글쓰기 전문가입니다 그녀는 유혈 죄 재판에서 인권 조사단을 운영했다