How to Leverage AI to Combat Fraud and Abuse

안녕하세요, 저는 Bolt의 Emily Yeh입니다 안녕하세요, 저는 Google AI의 Yewande Alade입니다

저는 IBM Watson의 Allie Miller입니다 우리는 AI가 어떻게 활용 될 수 있는지에 대해 이야기 할 것입니다 사기와 싸우기 AI는 소비자를위한 Siri에서 기업용 Watson에 이르기까지 모든 산업을 접하기 시작했습니다 이것은 우리가 진보를 만들 수 있지만 큰 위험에 빠지게합니다

AI가 더 똑똑하고 강력해질수록 진실을 속이는 것이 더 쉬워집니다 AI는 차세대 사기성 및 폭력적인 활동을 강화하기 시작했으며, 이러한 기술을 사용하는 것은 우리의 책임이자 능력입니다 자신과 미래를 보호하기 위해 산업 – 금융에서 농업, 상거래에서 보험에 이르기까지 – 우리는 다음 10 년 동안 보게 될 것입니다 그 사기 예방 및 사기 탐지가 가능한 가장 중요한 브랜드 부분 시장에 대한 신뢰와 투명성을 구축합니다 따라서 신생 기업의 제품 전문가로부터 배우십시오 IBM Watson 및 Google AI와 같은 회사 보다 강력하고 신뢰할 수있는 제품을 구축하는 방법을 배우십시오

적용된 기계 학습 방법을 사용하는 동안 긴급한 위험 동향에 대해 논의하겠습니다 귀하가 취할 수있는 적극적인 조치 그들을 확인하고 고칠 수 있습니다 따라서 우리는 SXSW에서 AI 패널을 통해 우리가 투표하고 최초의 여성을 창립하기를 바랍니다

How Apple is acting more like Google

– 캘리포니아 주 산호세에 있습니다 애플의 WWDC 2018 개발자 기조 연설 중 이것은 애플의 가장 큰 기조 연설이었다

이제까지 선물했다 그게 무슨 뜻이야? 애플은 엄청나게 많은 것들을 발표했다 지난 달 Google I / O에서 Google이 발표 한 것과 마찬가지입니다 기능과 마찬가지로 기능도 동일합니다 내가 뭘하고 싶은지, 나는 모두를보고 싶다

애플과 구글이 발표 한 기능 지난 몇 달 동안 그들을 비교하고, Google이 어떻게 Google의 방식대로 작동하는지 확인하십시오 애플은 애플의 방식대로한다 그러나 당신도 알다시피, 한 가지는 동일했습니다 보통 Apple은 당신에게 명확한 전반적인 주제를 제공합니다 기조 연설에서 당신은 이야기의 스레드를 얻습니다

그러나 이번에 그들은 많은 재료를 발표하는 것을 좋아합니다! 기조 연설에서 Google이하는 것과 정확히 일치합니다 이것이 가장 Google-y Apple 기조 연설 이었지만 꽤 오랫동안 나를 믿어 애플은 여전히 ​​애플이다 좋아, 우리는 스튜디오에 돌아 왔고 솔직히 우리가 통과 할 수있는 많은 것들이 있습니다 정말 급한 불을 뛰어 넘고 싶다

몇 명만 시작하면됩니다 그리고, 잘 여기에 나는 당신이 여기에서 약간의 재료를 볼 수 있도록 이것을 할 것입니다 좋아요, 그래서 첫 번째는 시간을 낭비하는 것입니다 애플은 스크린 타임, 구글이라고 부른다

Digital Wellbieng이라고 부르지 만 기본적으로 얼마나 많은 시간을 볼 수있는 앱 휴대 전화의 모든 앱에서 사용하고 있습니다 그리고 그것은 매우 유사합니다 매우 유사하고 또 다른 것은? 오 세상에, 나는 그들이 ios에서 고정 된 알림을 가짐; 나는 너무 흥분한다 이전에이 동영상에 대한 동영상을 만들었지 만 이제 그룹 알림을 설정하고 사용 중지 할 수 있습니다 알림에서 직접 알림 설정을 파고 들지 않고 그리고 지금, 내가하고 싶은 마지막 일, 정말로 빨리, 애플 포토와 요, 그것은 Google 포토를 똑바로 찢어

그들은 똑같은 특징을 가지고 있습니다 그들은 당신을 위해 이것을 가지고 있습니다 Google Assistant 섹션과 같습니다 마술처럼 재미있게 사진을 만들 수 있습니다 그들은 내부를 들여다 볼 수있는 고급 검색 기능을 가지고 있습니다

서로 다른 검색의 사진 및 문자열 체인을 함께 표시합니다 그리고 그들은 공유를 제안했습니다 사진에서 공유 앨범을 만들 것을 제안합니다 그 사람들과 함께, Google 포토처럼 그러나 차이점은 Apple Photos입니다

공유 앨범, 엔드 투 엔드 암호화, 애플은 클라우드에서 그것을보고있다 Google 포토, Google 퍼팅을 알고 있습니다 구름 속의 그들의 물건 이제 애플의 엔드 – 투 – 엔드 암호화 여기에 큰 이야기가 있습니다 Google이하는 방식과 다르게하십시오

그리고 그 차이는 전반적으로 매우 중요합니다 이 모든 이야기 정말 좋은 또 다른 예 증강 현실 공유, 양사 발표 공유 할 수 있다고 여러 장치 간의 증강 현실 경험 구글의 플랫폼이 다르다 애플은 그렇지 않다

그리고, 그거 알아? 내가 그것에 대해 이야기하기보다는, 이것이 내가 WWDC에서 시도해야 할 한 가지입니다 그래서 한번 살펴 보겠습니다 호스팅되는 게임에 참여했습니다 저쪽에, 그래서 지금 너는 전체 테이블을 볼 수있다 이 점에 대해 흥미로운 점은 공유 된 AR 경험이 모든 지역에서 일어나고 있습니다

이것은 모두 Wifi를 통해 직접 완료됩니다 그래서이 모든 것들의 위치에 관한 모든 데이터 나는 그것을 본다, 그는 그것을 본다, 그는 그것을 본다, 그것은 모두 일어나고있다 클라우드로 올라갈 필요없이 Google과 다른 방식입니다 그들은 "구름 앵커 (Cloud Anchors)"라고 불리는 것을 사용합니다 그것을 클라우드에 동기화 한 다음 다시 다운시킵니다

애플은 또한 그것을 잘 알고있다 너는 알다시피,이 물건과 그 물건, 이것들 두 개의 Ipads는이 테이블이 여기에 있고 이것이 공유 된 세상이라는 것 내가이 녀석에게 뭔가를 보낼 때 그는 그것을하는 법을 배우고있다, 나는 단지 지금 그에게 가서 덩크하자 좋아요 그래서 Verin과 Felicia가 내가 그 게임에서이긴 곳을 보여주고 잃어버린 대부분의 게임 게임을 잃었을 때의 진정한 이야기 단어 "승리"철자가 뒤로 '원인, 아시다시피, 그것은 공유 된 증강 현실입니다 실제로 올바른 시각을 가지고 있습니다

어쨌든, 내가 너와 정말로하고 싶은 말 약 두 가지 기능이 있다고 생각합니다 애플이 WWDC에서 발표 한 중요한 것들 첫 번째는이 새로운 바로 가기 기능입니다 Android P에있는 것과 매우 유사합니다 Axes and Slices라고 불리며 앱의 기능입니다

앱에서 나머지 운영체제로 나옵니다 검색 또는 위젯 패널에서 또는 무엇이든간에 이제 애플이하는 방식은 실제로 당신입니다 그것을 스스로 설정하십시오, 그것은 더 많은 구성입니다 안드로이드 P가하는 일은 당신이 신뢰해야한다는 것입니다

Google은 모든 것을 알아서 알아낼 것입니다 너를 위해서 그것들은 매우 비슷하지만 애플의 방식대로, 더 많은 설정이 필요합니다 Google 방식으로 Google을 신뢰해야합니다 그러나 가장 중요한 것, 가장 큰 뉴스 제 생각에 WWDC는 새로운 패러다임입니다

애플 리케이션이 앞으로 맥 오에스에서 작동 할 수있는 방법에 대해 실제로 이것은 기조 연설의 가장 좋아하는 순간이었습니다 Craig Federighi가 거기에있을 때 그는 그가 물어 보았습니다 마침내 맥 OS와 IOS를 병합 할 것인가? 대답은 아니오였다 "아니!" 아니

뭔가있을거야 훨씬 더 복잡하고 솔직하게, 훨씬 더 흥미 롭습니다 그러나 우리가 그것에 들어가기 전에, 나는 어떻게 이야기하고 싶은가? 이미이 작업을 수행했기 때문에 Google에서이 작업을 수행합니다 그들은 Android 앱을 가져 와서 Chrome OS에 올려 놓았습니다 그러나 Google은 그것을 극적인 Google-y 방법으로했습니다

그들은 문자 그대로 단지 janky 베타 버전을 발표했습니다 전화 응용 프로그램을 가져 와서 바탕 화면에 쳤습니다 Chromebook에는 터치 스크린이있어서 스크롤 할 수 있습니다 또는 무엇이든간에, 마우스 클릭으로 작동했습니다 그리고 그들은 그것을 단지 세계에두고 사람들에게 그것으로 주변을 어지럽히고, 시간이 지남에 따라 운영체제를 진화 시켰고 천천히 진화하고 있습니다

Android 앱이므로 궁극적으로 할 수 있습니다 윈도우 크기 조정 및 적절한 윈도우 잉, 나머지 모든 것들이 있지만 Google의 그저 그런 방법 일뿐입니다 "스크류처럼! 그것을 밖으로두고 사람들이 어떻게 보는지 우리가 그것에 반응하면, 우리는 그것을 해결할 것입니다 " 애플이 일하기를 원하는 방식이 아니다 Apple이이 작업을 수행하는 방식은 다음과 같습니다

iOS와 Mac OS 동일한 유닉스 토대를 가지고 있죠? 그러나 그들은 사용자 인터페이스를 만드는 다른 방법을 가지고 있습니다 그래서 애플이하는 일은 ios 용 사용자 인터페이스 빌더 Mac OS, UI 킷이라고합니다 그래서, 당신은 많은 것들을 가져갈 수 있습니다 당신이 당신의 아이오스 앱을 만들기 위해했던 것, 앱 개발자 플랫폼에서 몇 가지 조정을 해보면 X-Code를 클릭하면 Mac 앱으로 바뀝니다 맥 애플 리케이션, 당신이 창문의 크기를 조정할 수있는 느낌, 적절한 스크롤 기능이 있으며 작동하지 않습니다

터치 스크린을 사용하면 Mac에 터치 스크린이 없기 때문입니다 나는 조금 긴장 되네 나는 홈 애플 리케이션으로 하나를 연주했다 Ipad 앱처럼 느껴졌습니다 그냥 Mac 화면에 넣어, 당신은 창 크기를 조정할 수 그리고 그것은 위대했지만 그것은 단지, 버튼을 만져보고 싶었어

터치 스크린 용으로 설계된 버튼 인터페이스였습니다 하지만 여기에 핵심적인 부분이 있습니다 데스크톱 운영 체제는 놀라 울 정도로 훌륭합니다 심지어 초기에, 안드로이드 애플 리케이션과 janky 크롬 OS 베타 놀랍게도 조금만 가지고 있으면 유용했습니다 Instagram 앱 또는 약간의 To-Do 앱 대신 본격적인 데스크톱 앱 또는 웹 앱을 컨테이너 전자 일, 문자 그대로 수백만, 수백만, 수백만, 나는 그 인기있는 맥 오에스 중 일부를보고 싶다

그래, 우리가 뭘 배웠어? 우리는 Google에 관해 많은 것을 배웠습니다 매우 Google-y 방법으로 Google 물건 개발자가 준비하기 전에 물건을 놓습니다 그것으로 돌고, 그것을 고치려면, 그리고 그들은 시간이 지남에 그것을 알아 낸다 그들은 Google Assistant를 많이 신뢰하라고합니다

모든 것이 클라우드로 올라가고, Google은 그것을 분석합니다 그들의 기계 학습 알고리즘이나 뭐든지간에, 당신은 내가 좋아하는 많은 구성을 할 필요가 없다 실제로 애플의 방식보다 조금 간단합니다 하지만 그 모든 것들이 제대로 작동하려면 Google Assistant에 1 톤을 제공하십시오 데이터 및 정보에 대한 액세스

자, 애플의 방식은 매우 다르다 특히 많은 구성을해야합니다 지름길 물건 그리고 그것이 저를주는 것을 사랑하는 동안, 사용자로서 더 많은 통제 나는 많은 통제가 필요하다고 확신하지 못한다

나는 그 모든 것들을 정리할 시간을 갖기를 확신하지 못합니다 물론 애플이해야 할 일은 모든 엔드 – 투 – 엔드 암호화, 그래서 아무도 당신과 당신을 제외한 당신의 물건을 볼 수 있습니다 그것을 공유 할 수도 있습니다 이것이 내가 무슨 일이 일어나는가를 보는 것에 대단히 기뻐하는 이유입니다 이번 가을에 ios12와 모하비가 나왔을 때, 두 가지 접근 방식을 비교할 수 있기 때문입니다

우리가 할 수없는 것 말고는, 가장 중요한 것 이 두 회사의 차이점은 ios가 새 버전을 출시 할 것이라고 말하면 운영체제의 경우, 수백만에 달하며, 수백만 명의 고객이 업그레이드 할 때마다 곧 반면 안드로이드 P와 달리별로 사람들의 작은 조각은 안드로이드의 최신 버전을 얻습니다 다른 모든 사람들은 정말 오랜 시간을 기다려야합니다 따라서이 두 가지 접근 방식의 큰 차이점은 솔직히 애플 배송입니다

이 웜은이 Apple에서 돌아 왔습니다 이것이 Google의 기조 연설이지만, 애플은 나무에서 멀리 떨어진다! 우리는이 비디오를 훨씬 더 많이 만들거야 애플이 하루 종일 구글을 지키기 때문이다

How Google Medical Brain AI Can Improve Healthcare | #SocialRecap, ep. 12

YouTube는 최근 프리미엄 구독 음악을 제공한다고 발표했습니다 영국 및 다른 영토로의 서비스

이봐, Brand24 출신의이 Chia! #SocialRecap에 오신 것을 환영합니다 소셜 미디어 및 디지털 마케팅 뉴스의 최신 하이라이트 및 트렌드 그래서, 첫 번째 : Google은 Medical Brain AI에게 환자의 위험을 예측하는 방법을 가르쳐 왔습니다 사망률, 퇴원 및 재입학 많은 병원보다 훨씬 정확하게 따라서 광범위한 환자 데이터를 고려한 다음 그것을 인공 지능으로 가르쳐서 구글의 예측 알고리즘이 보여주는 데이터를 읽는 법 예측 측면에서 전통적인 병원 시스템보다 높은 정확성 환자의 건강 및 의학적 필요

사실, 이전 연구 중 하나에서 병원은 환자의 사망 위험이 93 %라고 예측했다 유방암에 걸린 반면, 구글의 메디컬 브레인 (Medical Brain) 위험 19,9 % 환자는 슬프게도 2 세 미만으로 사망했다 몇 주가 지나지 만 Google이 예상 한 더 높은 비율은 병원 자체의 예측보다 정확합니다

그래서 왜 큰 부분입니까? Medical Brain은 정확도가 높습니다 Google의 AI가 모든 메모를 읽었 기 때문입니다 의사는 각 환자의 응급 상태 기록을 작성합니다 많은 병원의 경고 시스템이 데이터 따라서 Google은 현재 Google의 정확성을 향상시킬 수있는 방법을 모색하고 있습니다

의료 두뇌 더 여기에는 음성 인식이 포함되므로 의사는 환자 파일에 대한 메모를 수동으로 만들어야합니다 그리고 이것이 합리화 될 것이지만 의료 과정이 아주 중요합니다 의료 과정에 엄청난 주요 재난을 피하기 위해 Google의 일부 그들이이 모든 것을 할 수 있다면 데이터 보안 규정을 준수하면서 Medical Brain은 인적 오류의 위험을 최소화하는 의료 분야에서 엄청난 발전을 이룩했습니다

그럼, 다음! Twitter는 모든 광고주가 사용할 수있는 인스 트림 비디오 광고를 만들고 있습니다 12 개의 다른 세계 시장에서 인스 트림 비디오 광고 확장 결정 모든 전략이 브랜드에서 어떻게 작용했는지를 보여주는 데이터에 의해 뒷받침되었습니다 Nielsen의 조사에 따르면 인스 트림 비디오 광고 광고 인지도를 70 %, 브랜드 인지도를 28 %, 심지어는 뷰어 구매 의도 6 % 그리고 그 혜택은 브랜드 트위터의 동영상 게시자가 60 % 증가했습니다

트위터 자체의 5 억 7500 만 달러 매출의 50 % 작년 1 분기의 동영상 광고는 실제로는 그렇지 않은 동영상 광고에서만 발생했습니다 일반적으로 동영상 조회수가 두 배가된다는 점을 감안하면 놀랍습니다 단 1 년 만에 Twitter 따라서 Instagram은 사용자가 내부에서 쇼핑하기를 원합니다 피드 글뿐 아니라 Instagram의 이야기

Shoppable Instagram Stories는 있습니다 현재 Adidas 및 Louis Vuitton과 같은 일부 유명 브랜드에 의해 테스트되고 있습니다 그들 제품의 쇼핑백 스티커를 Instagram 이야기에 넣어 라 그런 다음 사용자가 해당 스티커를 탭하면 해당 스티커에 대한 자세한 내용을 볼 수 있습니다 항목 따라서 Instagram은이 플랫폼을 통해 영감, 사용자가 구매할 수있는 곳을 기반으로하는 액션에 이르기까지 항목을 직접 찾거나 관심이있는 제품에 대한 자세한 정보를 찾으십시오

그래서, 당신은 Shoppable Instagram Stories가 플랫폼은 사람들이 앱 내에서 최대한 많은 시간을 보내길 원하지만 그럴 것 같지 않습니다 따라서 Instagram은 사용자가 온라인에서 너무 많은 시간을 낭비하지 않기 때문에 매일 알림으로 새로운 Usage Insights 기능의 일부입니다 일일 미리 알림을 통해 사용자는 플랫폼에 지출하는 시간을 제한하고 어쩌면 피드를 통해 어리석은 스크롤을 줄이면 사용자가 진정으로 각 게시물의 내용을 확인합니다 그리고 Pinterest 계속 확장하거나 도움이 그들의 마케팅에 창조적 인 전문성을 소개함으로써 그 사용자 파트너 프로그램 마케팅 파트너 프로그램 자체는 브랜드는 측정 및 성장에 사용할 수있는 정말 훌륭한 핀을 만듭니다

Pinterest에 그들의 존재 따라서 새로운 광고 전문가는 마케팅 파트너가 Pinterest API를 통해 구축 한 도구 QuickFrame, Shutterstock Custom, Vidmob 및 Vidsy 10,000 명이 넘는 디자이너, 사진 편집자 등이 있습니다 브랜드는 비즈니스에 도움이되는 독창적 인 전문 기술을 접할 수 있습니다 더 큰 규모로 Pinterest에 대한 콘텐츠를 만듭니다

그리고 우리는 그것을 보았습니다 페이스 북은 데이터 보안 이후 꽤 정기적으로 정책을 업데이트하고있다 새는 곳 최신 업데이트 중 하나에는 무기 관련 광고 타겟팅에 연령 제한 그래서, 판매 및 사용을위한 광고 무기 탄약과 폭발물은 실제로 페이스 북에서 허용되지 않습니다

그러나 이전에는 무기 홍보를위한 어떠한 제한도 없었습니다 관련 이익 집단, 총 안전 과정 및 특정 유형의 무기 부속품 그것은 무기를 제한하는 최근의 발표 때까지이다 18 세 이상의 사용자에게 관련 광고 타겟팅을 제공합니다 그리고 좀 더 음표에, YouTube는 최근 프리미엄 구독 음악을 제공한다고 발표했습니다

영국 및 다른 영토로의 서비스 공식적으로 그들의 모자를 던지고 스포티 파이 (Spotify)와 애플 뮤직 (Apple Music)과 같은 유사한 업체들과 함께 따라서 Google은 고급 검색 기능을 제공함으로써 가능한 한 오타, 잘못 기억 된 이름 및 오명 된 제목 이해하기 사용자가 실제로 찾고있는 올바른 노래를 끌어 올립니다 플러스 YouTube 영화 가입자는 중단없는 백그라운드 플레이를 즐길 수 있습니다 사용자가 음악을 계속 재생할 때도 YouTube에서 계속 음악을 재생할 수있는 기능 다른 앱을 엽니 다 모바일 앱과 데스크톱 모두를위한 새롭고 새로운 UX 버전은 청취자가 더 많은 음악을 발견 할 수 있도록 설계되었습니다

그들은 위치를 기반으로 즐기며, 듣기 패턴뿐만 아니라 최근에 활동 저, #SocialRecap의 에피소드를위한 것입니다 놓치지 마세요 소셜 미디어 및 디지털 마케팅 뉴스의 최신 동향 및 주요 내용 더 많은 영감과 통찰력을 얻으려면 Youtube의 #SocialRecap을 구독하십시오 물론 : 뉴스

튜닝 해 주셔서 감사 드리며 다음에 보겠습니다 안녕!

Training AI to understand how people think Google’s DeepMind is one step closer to “thinking”

사람들이 Google�s DeepMind를 어떻게 생각하는지 이해하기 위해 AI 교육 인간을 싫어하는 것 무엇이 잘못 될지 모른다

작성자 : Vicki Batts 인간 사고 패턴을 이해하고 실행할 수있는 인공 지능 기계 또는 프로그램 수십 년 동안 공상 과학에서 대중적인 주제였습니다 무수한 영화와 책은 미래의 AI �과 그것은 인간에게 끔찍하고 겉으로보기에는 어둡습니다 이제 Google은 DeepMind 회사가 한 번 소설로 간주되었습니다 DeepMind가 열심히하는 것처럼, 새로운 인공 지능 발전의 도입은 가파른 가격으로 올 수 있습니다 그들의 AI 로봇 인 Theory of Mind-net, 또는 ToM-net을 사용하여 인간이 어떻게 생각하는지 이해합니다

실제로 AI와 같은 인간과 같은 세대의 출현이 우리에게 있습니다 � 그러나 얼마나 오래 갈 것입니까? 이 새로운 컴퓨터가 제작자를 능가하도록하십시오 보고서에 따르면 DeepMinds의 새로운 ToM-net 봇은 심리적 인 약 4 세 경에 대부분의 어린이들이 기술을 개발한다는 것을 테스트하십시오 미래를 향해 우리를 몰아 넣을 수있는 마음의 시험 gr 이론을 이해할 수있는 능력 우리와 거의 같은 인간의 로봇 Google 소유 DeepMind의 새로운 인공 지능은 다른 인공 지능 로봇이 할 것입니다 DailyMail에 따르면, DeepMinds 프로젝트는 다른 AIs 주변 환경에 대해 � 거짓 신앙을 지니십시오

공상 과학의 악몽이 현실이 되었습니까? 근원이 설명 하듯이, 마음 능력의 이론은 진정으로 인간을 더 많이 몰아 낼 것입니다 인공 지능 가정, 그리고 ToM – net 그걸 가지고있는 것 같습니다 DeepMind 엔지니어 Neil Rabinowitz는 최근 인터뷰에서 다음과 같이 설명했다 에이전트 간의 차이점을 배우고, 그들이 어떻게 다르게 행동할지 예측하고, 요원들이 세상에 대해 그릇된 믿음을 가질 때 검열을받지 않고도 이와 같은 더 많은 뉴스를 얻으십시오 휴대 기기 용 Natural News 앱을 사용해보십시오

무수정 뉴스, 실험실 테스트 결과, 비디오, Podcast 등을 즐기십시오 Google, Facebook, YouTube 및 Twitter에 의한 모든 불공정 검열을 무시하십시오 출처에서 직접 귀하의 일일 뉴스와 비디오를 받으십시오! 여기에서 다운로드하십시오 our 우리의 기계가 다른 사람들을 이해할 수있게되면할수록 요청을 더 잘 해석 할 수 있고, 정보를 찾고, 그들이하는 일을 설명하고, 새로운 것들을 가르치고, 그들의 개인에 대한 반응, � 그는 계속했다 DeepMind 하이브처럼 일부 사람들은 새로운 AI를 신의 선물로 선전하지만 모든 사람들이 믿는 것은 아닙니다

그 고도로 지능적인 로봇은 매우 양성입니다 세계에서 가장 유명한 사람들 중 일부는 더 지능적인 것에 대해 우려하고 있습니다 기계는 인간을 대상으로합니다 테슬라 (Tesla)와 스페이스 엑스 (SpaceX)의 엘론 머스크 (Elon Musk) CEO는이 구경의 인공 지능이 인류의 것이라고 말했습니다 가장 큰 실존 적 위협, � 또한이 기술의 발전을 언급했다 악마를 ummoning했다

사향은 언젠가 슈퍼 지능 로봇이 사람들을 애완 동물로 키울 것이라고 믿고있다 He�s는 또한 언젠가는 우리의 기술이 발전 할 확률이 95 %라고 추정했습니다 우리를 절멸시킬거야 데일리 메일에 따르면, 스티븐 호킹 (Stephen Hawking)은 또한 그것이 "확실한 것"이라고 선언했다 인류는 기술적 인 위협 (또는 아마도 폭동?)에 의해 위협 받게 될 것이다

다음 1,000 ~ 10,000 년 그러나 Google의 신기술을 사용하면 예상보다 훨씬 빨리 하루가 걸릴 것으로 보입니다 불행히도 걱정할 필요가있는 것은 Google뿐입니다 전세계의 열정적 인 과학자들과 기술자들은 초과 근무를 통해 진정으로 결과를 고려하지 않고도 기계를 더 깊은 이해 상태로 만들 수 있습니다 아마도 이러한 추구가 다른 어떤 것보다 더 자아 중심적이라고 가정 할 수 있습니다

뭐 종은 실제로 그 자신의 후계자를 창조하는 길을 빠져 나옵니까? AI의 출현과 경고에 대해 경고하는 세계 최고의 인물들 그들의 위험 중에서도,이 소위 전문가들은 완전히 바보 같다고 말할 수 있습니다 우리가 수년 동안 무엇인가를 배웠다면 아무도 그 무엇도 알지 못한다 그들은 그렇게 생각한다 50 년 전, 담배를 피우는 것이 안전하다고 생각되었습니다 그리고 지금, 우리는 그것이 암을 유발한다는 것을 알고 있습니다

Training AI to understand how people think Google’s DeepMind is one step closer to “thinking”

사람들이 Google�s DeepMind를 어떻게 생각하는지 이해하기 위해 AI 교육 인간을 싫어하는 것 무엇이 잘못 될지 모른다

작성자 : Vicki Batts 인간 사고 패턴을 이해하고 실행할 수있는 인공 지능 기계 또는 프로그램 수십 년 동안 공상 과학에서 대중적인 주제였습니다 무수한 영화와 책은 미래의 AI �과 그것은 인간에게 끔찍하고 겉으로보기에는 어둡습니다 이제 Google은 DeepMind 회사가 한 번 소설로 간주되었습니다 DeepMind가 열심히하는 것처럼, 새로운 인공 지능 발전의 도입은 가파른 가격으로 올 수 있습니다 그들의 AI 로봇 인 Theory of Mind-net, 또는 ToM-net을 사용하여 인간이 어떻게 생각하는지 이해합니다

실제로 AI와 같은 인간과 같은 세대의 출현이 우리에게 있습니다 � 그러나 얼마나 오래 갈 것입니까? 이 새로운 컴퓨터가 제작자를 능가하도록하십시오 보고서에 따르면 DeepMinds의 새로운 ToM-net 봇은 심리적 인 약 4 세 경에 대부분의 어린이들이 기술을 개발한다는 것을 테스트하십시오 미래를 향해 우리를 몰아 넣을 수있는 마음의 시험 gr 이론을 이해할 수있는 능력 우리와 거의 같은 인간의 로봇 Google 소유 DeepMind의 새로운 인공 지능은 다른 인공 지능 로봇이 할 것입니다 DailyMail에 따르면, DeepMinds 프로젝트는 다른 AIs 주변 환경에 대해 � 거짓 신앙을 지니십시오

공상 과학의 악몽이 현실이 되었습니까? 근원이 설명 하듯이, 마음 능력의 이론은 진정으로 인간을 더 많이 몰아 낼 것입니다 인공 지능 가정, 그리고 ToM – net 그걸 가지고있는 것 같습니다 DeepMind 엔지니어 Neil Rabinowitz는 최근 인터뷰에서 다음과 같이 설명했다 에이전트 간의 차이점을 배우고, 그들이 어떻게 다르게 행동할지 예측하고, 요원들이 세상에 대해 그릇된 믿음을 가질 때 검열을받지 않고도 이와 같은 더 많은 뉴스를 얻으십시오 휴대 기기 용 Natural News 앱을 사용해보십시오

무수정 뉴스, 실험실 테스트 결과, 비디오, Podcast 등을 즐기십시오 Google, Facebook, YouTube 및 Twitter에 의한 모든 불공정 검열을 무시하십시오 출처에서 직접 귀하의 일일 뉴스와 비디오를 받으십시오! 여기에서 다운로드하십시오 our 우리의 기계가 다른 사람들을 이해할 수있게되면할수록 요청을 해석 할 수있게되고, 정보를 찾고, 그들이하는 일을 설명하고, 새로운 것들을 가르치고, 그들의 개인에 대한 반응, � 그는 계속했다 DeepMind 하이브처럼 일부 사람들은 새로운 AI를 신의 선물로 선전하지만 모든 사람들이 믿는 것은 아닙니다

그 고도로 지능적인 로봇은 매우 양성입니다 세계에서 가장 유명한 사람들 중 일부는 더 지능적인 것에 대해 우려하고 있습니다 기계는 인간을 대상으로합니다 테슬라 (Tesla)와 스페이스 엑스 (SpaceX)의 엘론 머스크 (Elon Musk) CEO는이 구경의 인공 지능이 인류의 것이라고 말했습니다 가장 큰 실존 적 위협, � 또한이 기술의 발전을 언급했다 악마를 ummoning했다

사향은 언젠가 슈퍼 지능 로봇이 사람들을 애완 동물로 키울 것이라고 믿고있다 He�s는 또한 언젠가는 우리의 기술이 발전 할 확률이 95 %라고 추정했습니다 우리를 절멸시킬거야 데일리 메일에 따르면, 스티븐 호킹 (Stephen Hawking)은 또한 그것이 "확실한 것"이라고 선언했다 인류는 기술적 인 위협 (또는 아마도 폭동?)에 의해 위협 받게 될 것이다

다음 1,000 ~ 10,000 년 그러나 Google의 신기술을 사용하면 예상보다 훨씬 빨리 하루가 걸릴 것으로 보입니다 불행히도 걱정할 필요가있는 것은 Google뿐입니다 전세계의 열정적 인 과학자들과 기술자들은 초과 근무를 통해 진정으로 결과를 고려하지 않고도 기계를 더 깊은 이해 상태로 만들 수 있습니다 아마도 이러한 추구가 다른 어떤 것보다 더 자아 중심적이라고 가정 할 수 있습니다

뭐 종은 실제로 그 자신의 후계자를 창조하는 길을 빠져 나옵니까? AI의 출현과 경고에 대해 경고하는 세계 최고의 인물들 그들의 위험 중에서도,이 소위 전문가들은 완전히 바보 같다고 말할 수 있습니다 우리가 수년 동안 무엇인가를 배웠다면 아무도 그 무엇도 알지 못한다 그들은 그렇게 생각한다 50 년 전, 담배를 피우는 담배는 안전하다고 생각되어졌습니다 암

How to Install Mycroft AI on a Raspberry Pi

안녕 모두, 배 승무원을 환영합니다 오늘 저는 어떻게 할 것인가를 보여 드리겠습니다

Mycroft AI를 Raspberry Pi에 설치하십시오 그래서 당신을 모르는 사람들을 위해 Mycroft AI는 Google 홈이나 Amazon Alexa와 같은 개인 비서이지만 또한 공개 소스이기 때문에 코드를 검토하고 변경할 수 있습니다 기호 그리고 그것이 발생하면 Raspberry Pi에 설치하는 것이 정말 쉽습니다 정확히 우리가 먼저해야 할 일입니다

이 프로젝트를 위해서 우리는 특히이 두 가지가 빠르기 때문에 Raspberry Pi는 구체적으로 모델 2 또는 모델 3입니다 Mycroft를 돌릴만큼 충분합니다 또한 8 기가 바이트 이상의 마이크로가 필요합니다 SD 카드, 아날로그 스피커 세트 및 USB 마이크가 있습니다 USB가없는 경우 마이크가 있지만 웹캠이 있으면 대신 웹캠을 사용해 보거나 사용할 수 있습니다

그래서 소프트웨어 측 우리는 SD 카드 이미지 버너 인 에셔가 필요할 것입니다 우리는 Mycroft 이미지를 SD 카드에 쓰려고합니다 네가 가지고 있지 않다면 그것은 진행하고 그것을 다운로드, 나는 아래의 설명에 링크가 있습니다 그리고 Mycroft AI github으로 가서 picroft를 다운로드하고 싶습니다 이미지, 나는 또한 아래의 설명에 링크되어 있습니다

일단 당신이 그냥에 처를 열고, 계속해서 선택하고 이미지 선택을 클릭하십시오 Picroft를 압축 해제 한 위치로 이동합니다 영상 그런 다음 SD 카드를 두 번 클릭하고 플래시를 누릅니다 일단 깜박이는 프로세스가 완료되면 컴퓨터에서 SD 카드를 분리하고 삽입하십시오

너의 나무 딸기 파이로 그런 다음 라즈베리 파이를 아날로그 스피커에 연결하고 또한 USB 마이크를 연결하십시오 다음과 같이 이더넷 케이블을 사용하려는 경우 귀하의 라즈베리 파이 또한 플러그를 꽂은 다음 라즈베리 파이의 전원을 켭니다 타고있다 PI와 Wi-Fi를 사용하려는 경우 키보드 및 화면을 Pi에 연결하여 Wi-Fi를 구성하십시오 도대체 무엇이 케이스, 결국 라스베리 파이가 mycroft 이미지를 부팅하고 필요한 모든 업데이 트를 만들었습니다, 그것은 스피커에서 코드를 재생 시작합니다 가끔씩

이제 다음으로하고 싶은 것이 있습니다 homemycroftai로 가서 계정으로 로그인하거나 가지고 있지 않으면 로그인하십시오 하나를 만든 다음 장치가있는 곳으로 향하십시오

이제 보시다시피 나는 이미 장치가 있지만 여기에 장치를 추가하지 않으면 귀하의 라스베리 파이가 스피커를 통해 연주하는 등록 코드 그때 여기서 Pycroft를 선택하고 Mycroft 장치의 이름을 지정하고 Mycroft라는 이름을 당신이 원한다면 몇 가지 다른 설명과 확인을하자 페어 모든게 간다면 당신은 한 쌍의 장치를 갖게 될 것입니다 이제 나는 이미 짝을 지어서 돌아가겠습니다 이제 기기를 페어링하면 기기 탭에 표시됩니다

가기 그리고 라스베리를 클릭하십시오 여기에서 설정을 수정할 수 있습니다 Mycroft가 이전에 입력 한 장소와 위치를 입력하면 날씨와 다른 것들 이제 당신은 모두 준비되어 있고 놀 수 있습니다 마이 크로프트

마이 크로프트, 몇 시죠? 이봐, 마이 크로프트는 노래 부른다 안녕 마이 크로프트는 나에게 농담을 말한다 그리고 이것들은 단지 일부입니다 Mycroft가 사전 설치되어 제공되는 몇 가지 간단한 명령 중 하나입니다 너라면 Mycroft가 다른 멋진 기술을 수행하도록 다른 기술을 설치하는 데 관심이 있습니다

mycroft 기술 설치에 대한 다른 비디오를 보냅니다 그래서 이것은 이것을위한 것이 었습니다 비디오, 나는 너희들이 그것을 즐기기를 바랍니다 우리에게 엄지 손가락을 줘야한다 더 멋진 콘텐츠를 구독했는지 확인하고 다음 동영상

How To Sample: AI Robots That Will Take Over The World | Siri, Alexa, Bixby!

이봐 빅스는의이 시간에 입력하자의 내일 아침에 알람을 설정할 수 있습니다 우리는 왜 7:00 AM의 알람을 설정하지? 물론 것은이 일치하는 경보가, 나는 오프 모두 켜져 당신에게 빅스 감사했습니다 난 항상 뒤로있어 거 오늘 그것을 할 수있어 좋아, 빅스

걱정하지 마십시오 나는 잠을 할 필요가 없습니다 이런 젠장? 괜찮아 이 처리하는 하나의 방법이 죄송 해요 나는 이해하지 못했다 당신이 나에게 잘못했다면 내가 여기있어 당신이 나를 찾을 때까지 그냥 이야기 나 계속 나는 잠을 할 필요가 없습니다 나는 내가 누구의 여러 측면이 있다는 것을 말할 수 있습니다 헤이 여러분 코멘트를 좋아하고 당신이 항상 같이 가입해야 시청 해 주셔서 감사합니다 인공 지능 로봇은 미래에 세계 복용 할 수 있지만 나는 아직도이 트랙이 영상과 거대한를 만드는 재미의 톤을 가지고 있었다 감사 금요일 제안을하고 각 주위에 충실해야 할 나에게 도전 내 친구 아드리안 파도바 외출 매 주 새로운 비디오로와 매일 지켜봐가 무슨 버튼의 인스 타 그램, 그럼 태워 함께 더 음악적 모험과 태그로 유지하기 위해 연합하여 진행시키고 언론 플레이보다 더 많은 작업을 수행

How Google Built the Pixel 2 Camera

지난 수년 동안 정말 다양한 카메라가 개발됐어요 우주에서 사진을 찍거나 인체 내부를 촬영하고 차 안에서 시야를 확보하는가 하면 일상 속 추억을 포착할 수도 있게 됐죠 요즘은 사진이나 동영상을 대부분 휴대전화 카메라로 찍죠 기능도 많이 발전해서 카메라로 360도 사진이나 4K 동영상을 찍고 새 친구를 만날 수 있게 됐고요 작년에 Google Pixel의 카메라를 테스트한 이후로 어떻게 이렇게 훌륭한 사진들이 손톱보다 작은 카메라에서 나오는 건지 또 카메라 안에서 어떤 일이 벌어지는 건지 궁금해졌죠 Pixel 2가 막 출시되었으니 Google을 돌아다니며 이 카메라를 만든 사람들을 만나 가능한 한 많이 배워볼 수 있는 절호의 기회인 것 같군요 Noodles, 준비됐니? 거북이 사진은 없지만 멋진 사진을 많이 볼 수 있을 거야 이제 시작해보죠 휴대전화 카메라를 만들 때 가장 어려운 점은 크기예요 휴대전화는 가볍고 얇아야 하니 블루베리만 한 공간에 카메라를 집어넣어야 하죠 휴대전화 밖에서 보면 렌즈가 있는데 Pixel 2 카메라에는 사실 렌즈 6개가 겹쳐져 있어요 모양도 굉장히 특이하죠 이상한 W 같은 모양으로 돼 있는데 아주 작은 공간을 활용해서 '수차'라는 오차로 인해 사진이 왜곡되지 않도록 해야 하거든요 올해는 광학식 손떨림 방지라는 기능도 추가되었어요 렌즈 주변을 둘러싸고 있는 물리적인 부품이 있는데 그 안에 모터가 달려 있어서 여러 차원으로 렌즈를 조정할 수 있죠 초점을 맞추면 렌즈가 앞뒤로 움직이고 광학적 손떨림 보정 기능이 – 렌즈를 상하좌우로 움직이죠 – 손의 움직임을 보정하려고 움직이는 모습을 실제로 볼 수 있어요 렌즈의 1mm 뒤에는 센서가 있어서 디지털카메라의 필름과 같은 역할을 하죠 이 센서는 빛을 포착해서 전기 신호로 변환하는 감광 화소, 즉 픽셀로 덮여 있어요 올해 나온 Pixel의 이미지 센서는 1,200만 개 픽셀을 갖췄는데 각 픽셀은 좌우로 나뉘므로 사실상 부분 픽셀이 2,400만 개라고 볼 수 있죠 이건 나중에 자세히 살펴볼게요 하지만 지금 짚어볼 흥미로운 점은 센서에 심도와 자동 초점과 관련된 새 기능이 탑재되었다는 거죠 사진이 찍히는 원리를 간단하게 설명해주실 수 있나요? 실리콘 조각으로 사진을 찍을 수 있다는 것 자체가 놀라운 일이죠 센서에서 찍힌 사진을 그대로 쓰지는 못해요 어두운 데다 온통 초록색이고 불량 픽셀이 붙어 있으니까요 컴퓨터 활용 사진 기술을 이용하지 않더라도 이 이미지를 그럴듯한 최종 사진으로 만들기까지 수많은 작업이 필요하죠 이러한 작업은 모든 디지털카메라에서 이뤄져요 카메라마다 방식은 조금씩 다르지만 Pixel 2에서는 30~40단계 정도를 거치죠 저는 첫 번째 단계가 가장 흥미로웠는데요 센서에는 적색, 녹색, 청색 픽셀이 격자무늬로 배치된 물리적 색상 필터가 있어서 픽셀이 빛의 모든 색을 감지하는 대신 적색, 녹색, 청색 중 하나만 감지하죠 우리 눈은 녹색에 더 민감하기 때문에 녹색 빛은 2배로 많이 감지하고요 이쪽에 있는 적색과 이쪽에 있는 녹색과 이쪽에 있는 청색을 합쳐 색상 이미지를 만드는 거예요 – 이 과정을 '디모자이크'라고 해요 – 이 이미지는 감마값 교정과 화이트 밸런스 조정, 노이즈 제거 선명도 조정 등의 단계를 거치죠 원래 이런 단계는 하드웨어로 처리했어요 이 작업을 위해 설계된 전기 회로망이 있었던 거죠 컴퓨터 활용 사진 기술이 발전하면서 점점 소프트웨어의 비중이 높아졌죠 컴퓨터 활용 사진 기술에는 여러 가지 의미가 있지만 기본적으로 이미지 처리를 돕는 고급 알고리즘을 의미해요 Pixel 2에는 HDR+와 인물 사진 모드라는 핵심 기능이 있죠 HDR+를 개발하기로 했을 때 작은 센서가 큰 센서처럼 작동하도록 만들어주는 알고리즘이 필요했어요 그러면 저조도 사진이 잘 나오고 동적 영역도 아주 커지겠죠 아주 어두운 피사체와 밝은 피사체를 한 사진에 담을 수 있도록 말이죠 휴대전화에서 이 기능을 구현하려면 사진을 한 번에 한 장이 아니라 10장까지 찍어서 조합해야 해요 모든 사진을 저노출로 찍어서 어두운 부분과 밝은 부분을 모두 포착하는 거죠 하지만 HDR+이 단순히 모든 사진의 평균을 내는 작업은 아니에요 손이 움직이거나 피사체가 바뀔 수도 있으니까요 이미지의 각 타일을 살펴본 다음 '이 부분이 움직인 건가?' '약간 옮겨서 맞출 수 있을까?' '이 부분은 어디로 갔는지 모르겠으니 그 프레임에서 타일 하나만 없애자' 하는 식으로 작업하는 거죠 유령이 나오지 않도록 세심한 주의를 기울여요 – '유령'이 기술 용어였군요 – 네, 이중 이미지를 말하죠 유령을 쫓아낸 다음에는 미학적 결정을 내려야 해요 사진의 어두운 부분과 밝은 부분을 얼마나 합칠 것인가 하는 문제인데요 아주 어두운 곳에서 사진을 찍으면 연속 사진을 찍은 다음 평균을 내서 꽤 보기 좋은 사진을 찍을 수 있죠 그런데 낮에 찍은 것처럼 밝게 만들어야 할까요? 어두운 음영을 모두 밝게 만들고 밝은 부분만 골라서 조합하면 초현실적이거나 만화 같은 이미지가 만들어지겠죠 그러니 무엇을 버릴지 결정해야 해요 여기서 잠깐! 영상에서 Mark에게 초점이 맞춰지고 배경은 흐리게 처리된 게 보이시죠? 이걸 낮은 심도라고 하는데 대구경 렌즈와 높은 조리개 설정을 사용하여 촬영하면 이런 결과를 얻을 수 있어요 인물 사진 모드는 이 효과를 만들어내는 Pixel 2의 새 기능이죠 물론 휴대전화에서는 이 효과를 만들기가 조금 더 까다로운데요 렌즈와 조리개가 정말 작거든요 휴대전화로 사진을 찍으면 모든 부분이 선명하게 보이죠 인물 사진 모드에서는 머신 러닝과 심도 매핑을 사용하여 – 이 문제를 해결하죠 – 각 픽셀을 일반적으로 처리하는 대신 '어떤' 픽셀인지 이해하려고 하죠 사람인지, 배경인지 등 픽셀의 의미를 이해하는 거죠 신경망을 학습시키는 데는 예시가 거의 백만 개나 사용됐어요 사람, 모자를 쓴 사람 아이스크림콘을 든 사람 친구나 강아지와 포즈를 취하는 사람 등의 예시를 사용해 어떤 픽셀이 전경에 있는 사람이고 어떤 픽셀이 배경인지 파악했죠 이를 통해 알고리즘이 마스크를 만들고 이 마스크 안에 있는 것은 모두 선명하게 처리하는 거예요 그런데 마스크 밖의 피사체를 얼마나 흐리게 처리할지도 문제죠 하드웨어를 선택할 때부터 듀얼 픽셀 센서로 정해놨어요 모든 픽셀이 사실상 하위 픽셀 2개로 나뉘는데요 눈이 2개라서 세상을 2개의 다른 시야로 보는 것과 같죠 왼쪽과 오른쪽의 아주 작은 카메라를 통해서요 연필 끝부분보다도 작은 원근감의 차이만으로도 대략적인 심도 맵을 만들 수 있어요 그래서 인식되는 거리감에 따라 배경을 얼마나 흐리게 할지 대략적으로 정하는 거죠 심도 맵을 사용하면 굳이 사람을 찍지 않아도 인물 사진 모드로 접사 느낌이 나는 근사한 사진을 찍을 수 있어요 셀카를 좋아하시는 분들은 전면 카메라로도 인물 사진 모드를 사용할 수 있어요 이 에피소드를 만들기 전에는 휴대전화 카메라가 얼마나 많은 테스트와 조정을 거쳐 만들어지는지 몰랐어요 엔지니어링 분야에는 제대로 테스트하지 않았다면 망가진 거나 다름없다는 말이 있어요 지금까지 잘하고 있는지 알려주는 테스트를 어떻게 설계하냐에 따라 카메라 품질이 결정되죠 카메라를 조정할 때는 예술과 물리학이 모두 필요하고 조정할 매개변수는 수천 가지나 되죠 문제는 모든 매개변수가 서로 간섭한다는 거예요 한 가지 매개변수를 바꾸면 거기에 영향을 받는 다른 10가지도 확인해서 바꿔야 해요 그래서 수많은 자동화 테스트를 통해 자동 초점, 화이트 밸런스, 전반적인 색상 및 색조, 해상도 등을 측정하는 연구실이 있죠 이런 테스트가 불가능했다면 어떻게 됐을까요? 데이터 세트 하나를 얻는 데 몇 주가 걸렸겠죠 엔지니어링을 활용해서 하듯이 반복 작업을 할 수는 없었을 거예요 제 마음에 들었던 단계 중 하나는 로봇을 활용한 '헥사포드'였는데 동영상 안정화를 테스트하는 단계였죠 이동할 좌표를 여러 가지 줘서 느리고 부드럽게 흔들거나 미친 듯이 흔들라고 명령할 수 있어요 올해는 광학식과 전자식 손떨림 방지 모두가 동영상에 적용되었어요 광학식은 손떨림 같은 작은 움직임을 보정하고 전자식은 큰 움직임을 보정하죠 먼저 동영상 프레임을 살펴본 다음 자이로스코프 측정값을 사용해서 앞쪽의 프레임 몇 개와 비교해요 어느 방향으로 움직였는지 자이로스코프를 통해 알아내서 의미가 있는 움직임인지 판단한 다음 그 움직임을 없애버리죠 휴대전화 카메라 속에서는 수많은 작업이 실행되고 있어요 Pixel 2의 카메라도 마찬가지죠 손떨림 방지라든지 자동 초점 하나만을 주제로 해도 동영상 하나가 나왔을 거예요 이 동영상을 만드는 과정에서 카메라에 대해 정말 많이 배웠는데요 예를 들어 어두운 곳에서 자동으로 초점을 맞추기 위해 Pixel 2에서는 아주 작은 적외선 레이저 빔이 사용돼요 후면 카메라는 15g 정도니까 거의 클립 하나 무게밖에 안되고요 휴대전화 카메라는 놀랍도록 복잡해서 지금까지 살펴본 것도 아주 일부분에 불과하죠 이 에피소드 중간중간에 Pixel 2로 촬영한 사진이 들어가 있는데요 Pixel 2 카메라는 DxO 테스트 결과 최고의 스마트폰 카메라로 평가됐죠 더 자세히 알고 싶다면 이 동영상을 확인해보세요 저와 제 친구 Lo가 Pixel 2로 촬영한 동영상이에요 오늘은 여기까지예요 안녕히 계세요! Noodles는 낮잠을 자러 갈 거예요 여러분은 다른 동영상을 확인해보세요 다음에 만나요!

How Google Arts and Culture’s Face Match A I Actually Works

어떻게 구글 예술과 문화의 얼굴 일치 AI 실제로 작동 인공 지능은 요즘과 인간이 여부를 결정할 수없는 것 어디에나 [이 이동하거나 아직도 가야 얼마나 웃을 수있는 방법을 지금까지 섬뜩한합니다 즉 사용자에게 허용 바이러스 구글 예술과 문화 기능을 만들 었는지의 일부 너무 재미 예술 작품으로 자신의 얼굴을 비교합니다

그것은을 위해, 우리의 자연 허영을 연주 확실히, 그러나 그것은 또한 우리에게 AI가 할 수있는 무엇을 테스트 할 수있는 기회를 주었다 일부 사용자는 재미있는 효과, 인공 지능 펑크 할 수있는 기회를했다 : 당신이 우리의 미래 로봇 군주가 작동 할 수 방법을 알고 싶다면, 여기에 얼굴에 대한 소개입니다 인식이 힘 얼굴 일치하는 기술 어떻게 구글 문화 예술 얼굴 인식 작동 얼굴 인식은 생체 인식입니다 얼굴의 물리적 기능을 검사 시스템은 한 사람을 구분하는 시도 서로 얼굴 인식은 이미지에서 얼굴을 검출하고, 고유 한 특성의 "페이스 프린트"를 생성하고 검증 및 / 또는 대조 식별 데이터베이스에서 정보를 기존의 그것은 쉬운 과정처럼 들리지만, 사실, 기계 것을 배우고 많은이있다 이미지에서 얼굴을 식별 한 후, 그 방향을 바꾸거나 크기를 조정할 필요가있다 : 먼저 수행해야 그것은 더 나은 읽기 – 우리 모두 셀카 너무 가까이에서 촬영 한 경우에 있었어요 현실 왜곡 보인다

당신은 또한 좋아할 것 : 함께 당신의 생활을 개선 아마존 프라임에이 7 개 전선 (예, 전선) 그런 다음, 한 번 AI는 크기를 조정하고 방향을 전환하고있다 얼굴, 그것은 "페이스 프린트"를 고유하게 식별 특성의 집합을 생성 한 사람의 얼굴입니다 이 같은 얼굴 특징 사이의 거리를 포함 할 수있다 눈, 또는 모양이나 코의 크기 Faceprints이어서 개별적으로 비교 될 수있다 사진 또는 여러 이미지의 데이터베이스에

구글의 박물관 셀카 기능의 경우, 업로드 각각의 셀카 예술의 70,000여 작품의 데이터베이스와 비교된다 구글의 FaceNet 구글은 회사의 숫자 중 하나입니다 얼굴 인식에 관심이있다 – 다른 사람이 포함 (깜짝 놀랄) 페이스 북과 마이크로 소프트 – 그리고, 2015 년, 출판 연구는 주장은 지금까지의 얼굴 인식 소프트웨어가 온, 정확한 식별을 시간의 9963 퍼센트를했다 페이스 북의 비교 연방 수사 국 (FBI)의 기술은 85 %를 주장하면서 DeepFace 알고리즘은, 9725 %의 정확도를 주장 워싱턴 포스트는보고있다

얼마나 구글의 얼굴의 또 다른 기호 인식이왔다? Google 포토 이제 애완 동물을 식별 할 수 있습니다 시스템이 완벽하지 않는 것이 구글의 얼굴 인식 소프트웨어가 나타났다 Google 포토 실수로 아프리카 두 태그 때처럼 경쟁이 엄청 시리 오해하기 구글은 설명대로, 모든 교육에 관하여 2015 년에 고릴라로 미국, 당신이 그 사진을 볼 때처럼 컴퓨터가 반응하지 않지만, 컴퓨터가 될 수 있습니다 색상과 모양의 특정 패턴을 인식하도록 훈련 예를 들어, 컴퓨터가 수도 디지털을 구성하는 모양과 색상의 일반적인 패턴을 인식하는 훈련 얼굴의 화상 현재 워싱턴 포스트에 따르면, 사용자 Google 사진에서 얼굴 인식으로 선택해야합니다 (그러나 페이스 북)

그러나,이 셀카 기능을 장난으로, 그 때문에, 우리가 무슨 일을하는지 본질적이다 우리는 적극적으로 스마트 한 구글의 AI를 만들기에 동의합니다

How Google Arts and Culture’s Face Match A.I. Actually Works

인공 지능은 사방이 일 인간은 갈 수있는 방법을 지금까지 무서워해야할지 여부를 결정할 수없는 것 또는이 바이러스를 만들 었는지의 일부 가고 아직도 얼마나 멀리 웃음 사용자가 작업을 자신의 얼굴을 비교할 수 있도록 구글의 예술과 문화 기능 예술의 너무 재미는 확실히 우리의 자연 허영을 연주뿐만 아니라 우리에게 준 hayai 일부 사용자의 능력이 무엇인지 테스트 할 기회가 할 수있는 기회를했다 어떻게 우리의 미래 로봇을 알고 싶다면 재미있는 효과에 AI 펑크 여기에 작동 할 수 군주는 전원을 얼굴 인식에 대한 소개입니다 얼굴 일치 기술 방법 구글의 문화 예술 얼굴 인식 작품 얼굴 인식은을 검사하는 생체 인식 시스템 얼굴의 신체적 특징은 서로 한 사람을 구분하는 시도 얼굴 인식은 이미지의 얼굴 고유의면 인쇄를 생성 감지 특성과 후를 검증 및 / 또는 기존에 대해 그것을 식별 데이터베이스의 정보는 쉬운 과정처럼 들린다 하지만 실제로 기계가 최초의 후 작업을 수행해야한다는 것을 학습이 많이있다 이미지의 얼굴을 식별하는 단계는 재교육하거나 위해 크기를 조정해야 더 나은 독서는 우리 모두 셀카 너무 가까이에서 촬영 한 경우에 있었어요 현실 왜곡 보이는 이러한 7 당신의 인생을 개선하는 것 같아서 다음 아마존 프라임 예 와이어에 와이어는 눈 크기를 조정하고 방향을 전환되면 얼굴은 그 고유 얼굴 인쇄하기 특성의 집합을 만들어 한 사람의 얼굴을 식별이 얼굴 사이의 거리를 포함 할 수있다 같은 눈이나 모양이나 코의 크기와 같은 기능 인쇄는 다음이 될 수 직면 개별 사진 또는의 경우 많은 이미지의 데이터베이스와 비교 구글의 박물관 셀카가와 비교 업로드 각각의 셀카 기능 기술 문서 구글의 얼굴 순의 70,000여 작품의 데이터베이스 구글은 중 하나입니다 얼굴에 관심이있는 기업의 수 인식 다른 놀라운 놀라운 페이스 북과 마이크로 소프트에 포함 그것은 그것에 대해 주장하는 2015 출판 연구 자사의 얼굴 인식 소프트웨어는 정확한 식별을 아흔을 아홉 만들어왔다 비교 시간의 여섯 3 % 포인트 페이스 북의 깊은 얼굴 알고리즘은 아흔일곱 지점이 5 %를 주장 정확도 FBI의 기술이 아니라 85%을 주장하면서 워싱턴 포스트는 구글의 얼굴 인식이 얼마나 멀리의 또 다른 기호를보고 온 구글의 사진은 이제 시스템이 완벽하지 않는 것이 애완 동물을 식별 할 수 구글의 얼굴 인식 소프트웨어는 끔찍한 알라 경주를 얻을 것으로 나타났다 구글의 사진을 실수로 고릴라로 아프리카 계 미국인에 태그 할 때와 같은 잘못된 2015 년