#AndroidDevSummit ’18, AI Hub & Kubeflow Pipelines for businesses, Cloud Scheduler, & more!

[음악 재생] JEN PERSON : 안녕하세요 저는 Jen Person의 "Developer 보여 주다

" 가장 멋진 개발자의 주간 업데이트입니다 Google의 뉴스 지난 주 Android Dev Summit이 발생했습니다 캘리포니아 마운틴 뷰에있는 컴퓨터 역사 박물관에서 팀은 안드로이드 10 년을 기념했습니다

Kotlin, Jetpack, Android에 대한 공유 업데이트 Studio, App Bundles 및 물론 Foldables에 대해 이야기했습니다 모든 세부 사항과 세션 비디오에 대한 링크를 보려면, 아래 설명에있는 링크를 클릭하십시오 지난 주, 팀은 AI 허브와 Kubeflow를 소개했습니다 AI를 더 간단하고, 빠르며, 더 유용합니다 AI 허브에는 플러그 앤 플레이 ML 콘텐츠가 있습니다

Jupyter 노트북, TensorFlow 모듈, 그리고 더 Kubeflow 파이프 라인은 Kubeflow의 새로운 구성 요소입니다 앱을 만드는 것처럼 ML 코드를 패키지화하고, 조직 전체의 다른 사용자에게 재사용 할 수 있습니다 두 가지에 대한 자세한 내용은 링크를 참조하십시오 Cloud Scheduler는 완전히 관리되는 cron 작업 서비스입니다

모든 응용 프로그램이 배치 / 큰 데이터를 호출 할 수있게 해주는 기능, 클라우드 인프라 운영 – 본질적으로, 자동화 된 배치 작업을위한 최신 관리 cron 서비스 이제 사용 가능합니다 빠른 시작에 대한 링크는 게시물에 있습니다 컨테이너는 업계 표준 컨테이너 런타임입니다 Dockers 핵심 런타임 구성 요소 이제 Containerd Optimized에 베타 버전으로 제공됩니다

Kubernetes 엔진 111 용 OS 예제 명령과 사용자 가이드에 대한 링크가 게시물에 있습니다 2018 고 사용자 설문 조사는 응답을 위해 열려 있습니다 11 월 30 일까지

귀하의 관점을 공유하려면 게시물을 클릭하십시오 최고의 프로그래밍을 만드는 데 도움이됩니다 가장 가까운 사람들의 욕구와 욕구에 맞는 언어 그것에 너야 마음에 드시고 구독하고 공유하시는 것을 잊지 마십시오

나는 "Developer Show"의 Jen Person입니다 보고 주셔서 감사 드리며 다음 주에 다시 보겠습니다 때때로 나는 주변을 걷고있다 나는 왜 사람들이 나를 쳐다 보는가? 그리고 나서 나는 그것이 내가 아이처럼 입은 옷

Create Customer Value with Google Cloud AI (Next Rewind ’18)

연사 : 다음 2018 년에 300 회 이상의 세션이 있으며, 너는 그들 모두에게 다가 갈 수 없다는 것은 이해할 만하다 따라서 고객 생성이 표시되지 않은 경우 Google 클라우드 AI로 가치를 얻은 다음 계속 조정합니다

왜냐하면 여기에 되감기가 있기 때문입니다 [음악 재생] 가장 일반적인 과제 중 하나 기계 학습으로 얻고있다 커다란 위협적인 과정에서 실제로 귀하의 비즈니스에 도움이됩니다 혹시이 문제와 씨름 해 본 적이 있다면 너 자신, 그럼 좋은 소식 클라우드 고객에게 제공하는 몇 가지 조언이 있습니다

그들이 시작하는 동안 아마 당신도 유용 할 것입니다 첫째, 간단하게 시작하십시오 한 번에자가 운전 차량을 만들 필요가 없습니다 대신, 가장 간단한 문제부터 시작하십시오

당신은 기계 학습으로 태클을 할 수 있습니다 실제로 복잡한 응용 프로그램처럼 보입니다 보통 별도의 컬렉션으로 시작합니다 구성 요소 둘째, 비즈니스 문제를 파악하십시오

기계 학습을 시도하기 전에 비즈니스에 미치는 영향을 파악해야합니다 당신의 신청서는 가질 것이다 그렇지 않으면, 그냥 잡힐 수도 있습니다 문제에 대한 해결책의 차가움에 어떤 해결이 필요하지 않습니다 셋째, 애플리케이션에 완벽하게 통합 할 수 있습니다

가능한 한 최종 사용자 인 최종 사용자 기계 학습이나 인공 지능으로 작동하는지 상관하지 않습니다 또는 무엇이든 그들은 기능을 살펴 봅니다 넷째, 기계 학습이 당신을 열 수 있습니다 새로운 사용자 상호 작용 패러다임에 이전에 당신에게 제공되었습니다

과도한 집중으로 새로운 기회를 놓치지 마십시오 오래된 문제들 그리고 마침내, 비록 그것이 발발을 느끼더라도, 당신은 큰 생각을해야합니다 AI 그 혁명적 인 기술은 인터넷과 마찬가지로 모든 사업을 변화시킬 것입니다 25 년 전 20 년 전 세계를 변화 시켰습니다

그러나 한 입 크기의 덩어리로 생각하면됩니다 우리가 고객과 함께 일할 때, 우리는 당신은 그 큰 비전을 가지고 있습니다 그러나 우리는 당신과 함께 일할 것을 확신합니다 다루기 쉬운 조각으로 그리고 이것은 시험되지 않은 조언이 아닙니다 우리가 가지고있는 거대한 고객 목록이 있습니다

기계 학습의 성공을 도왔으며, 이야기는 그들의 이야기 중 많은 부분으로 밀집되어 있습니다 고객 사례 및 실질적인 조언 인 경우 당신이 찾고있는, 전체 이야기를 확인해보십시오 그리고 그것이 당신이 볼 수있는 전부는 아닙니다 AI 회사가되는 과정에서 배운 교훈을들을 수 있습니다 기술에 대한 조언을 찾을 수 있습니다

우리가 기계를 배우기 위해 만든 것 프레스에서 뜨거운 것들을 포함하여 더 쉽게 여행 할 수 있습니다 우리는 기술 격차를 어떻게 해결할 수 있는지 살펴 봅니다 데이터 과학의 문제 세계에는 2 천 1 백만 명의 개발자가 있으며, 그 중 단지 몇 천 명만이 깊은 학습 모델을 구축하는 데 능숙합니다 그것에 대해 무엇을해야할까요? 전체 발표에서 찾아보십시오

그리고 발표가 마음에 들면,이 이야기는 당신에게 큰 세 가지를 가져다줍니다 첫째, Contact Center AI; 둘째, Iron Mountain과의 새로운 파트너십 우리의 자연 언어 이해를 사용할 수있게 해줍니다 플랫폼 내 기술 그리고 스피드에 대한 필요성이 있다면 좋아하는 것, 강력하고 새로운 알파 TPU 하드웨어 그리고 맨 위에있는 체리는 프랑스 인이있는 AutoML 데모보기 당신과 AI에게 부드럽고 둥근 치즈를 알려주고 있습니다 그리고 속지 마라, 그들은 모두 브리가 아니라는 것을 알게된다

가득 찬 이야기를보고 싶다면, 아래 설명에서 링크를 확인하십시오 그리고 Cloud YouTube에 가입하는 것을 잊지 마십시오 더 나은 다음 되감기 콘텐츠를위한 채널 지켜봐 줘서 고마워 [음악 재생]

Leverage AI on the Cloud to Transform Your Business (Next Rewind ’18)

CASSIE KOZYRKOV : 다음 2018 년에 300 회 이상의 세션이 있으며, 너는 그들 모두에게 다가 갈 수 없다는 것은 이해할 만하다 그래서 당신이 클라우드를 활용하지 않았다면 귀하의 비즈니스를 변화시키고, 계속 지켜봐주십시오

왜냐하면 여기에 되감기가 있기 때문입니다 [음악 재생] 기계 학습은 알고리즘 접근법입니다 데이터로 반복적 인 결정을 내리는 것 시작하기 전에 모든 구성 요소가 있는지 확인하십시오 배울 데이터, 확인; 기계 학습에 대한 액세스 알고리즘, 확인; 반복적 인 결정을 자동화하려는 욕구 – 우리는 정말로 여기 반복을 말하고 있습니다

10 가지의 결정이 아니라 10,000이나 100 억에 가깝습니다 검사 큰 이야기에서 나온 큰 아이디어를 요약 해 봅시다 첫째, ML을 사용하여 여러 문제를 해결할 수 있습니다

오늘 규칙을 작성 사실, 그것을 적용 할 수있는 기회를 찾을 수있는 좋은 방법입니다 귀하의 비즈니스에서 규칙을 찾는 것입니다 예 : Google 검색에서 검색어 완성 는 손으로 만든 규칙의 진짜 얽힘이었습니다 그것에 기계 학습을 적용하는 것은 우리의 가장 큰 부스트를 가져 왔습니다

2 년 넘게 품질 순위를 매겼습니다 둘째, 기계 학습은 응용 프로그램을 개인화하십시오 ML은 손수 만든 규칙보다 잘 확장되기 때문에 기존 논리 위에 모델을 레이어 할 수 있으며, 당신은 이제 또한 주요 사용자와 다른 사람들을 기쁘게 할 수 있습니다 분견대 자, 물론,이 모든 것을 확인하는 것은 데이터입니다

ML을 규칙 기반 프로세스로 전환하는 것으로 생각할 수 있습니다 그것의 머리에 모델 또는 규칙으로 시작하는 대신, 그것을 뒤집어서 데이터로 시작하십시오 셋째, 기대를 지닌 설계 시스템 내년에는 더 많은 데이터를 얻을 수 있습니다 너의 세계는 정적이 아니기 때문에 너는 기대해야한다

데이터가 커지게됩니다 그리고 더 많은 데이터가 이기기 때문에 이것은 좋은 일입니다 그러나 이것이 당신을 두는 때 무엇이 ​​일어나는가? 엑사 바이트 또는 페타 바이트 영역에서? 예를 들어, 깊은 학습은 잘 작동합니다 큰 데이터 세트 선형 적으로 오류율을 떨어 뜨리려면, 데이터를 기하 급수적으로 늘려야합니다

저기서의 로그 스케일입니다 나는 예측을 좋아한다 당신이 깊은 학습에 있다면, 나는 예측한다 당신의 미래에 많은 데이터 여기에 제안이 있습니다

모든 개인적인 시간을 소비하지 마십시오 큰 데이터 인프라에서 대신 서버리스 방식을 사용하십시오 그래서 당신은 실제로 당신을 데려 오는 것에 당신의 노력을 기울일 수 있습니다 가장 가치있는 것 인프라가 아닌 코드 측면에서 생각해보십시오

우리를 네 번째 아이디어로 이끌어줍니다 인프라를 잊어 버릴 수있는 플랫폼 사용 훌륭한 사전 제작 된 모델을 제공합니다 다양한 ML 시나리오에 대한 유연성을 찾으십시오 그럼 깊은 학습을 다시 살펴 봅시다 최첨단 머신을 수행하는 데 필요한 컴퓨팅 성능 지난 6 년간 학습은 천만 번 증가했습니다

천만 번이나 당신이 최첨단에 있고 싶다면, 효율적이고 비용 효율적인 ML이 필요합니다 환경 점점 더 많은 데이터를 처리하기 위해 분산 될 필요가 있습니다 점점 더 많은 계산을 처리하기 위해 더 나은 하드웨어가 필요할 것입니다

Google Cloud는 이상적인 환경을 제공합니다 하드웨어의 분산 처리 용 당신의 필요에 맞게 환상적인 서버 관리 방식을 제공합니다 훌륭한 사전 빌드 된 모델로 ML을 실행하려면, 그래서 처음부터 모든 것을 만들 필요가 없습니다 네가 원치 않으면

제 말은, 왜 재발견 할 필요가없는 바퀴를 재발견하는 겁니까, 그렇죠? 이 이야기를 요약하면, 다채로운 사용 사례를 생략했습니다 그 아이디어를 실제로 현실로 가져옵니다 영화 추천 시스템, 사기로부터 기계 학습 학습 탐지, 고객 서비스, 사물의 인터넷, 자동차 경매, 게임 등 가득 찬 이야기를보고 싶다면, 설명의 링크를 확인하십시오 아래를 클릭하고 Cloud YouTube에 가입하는 것을 잊지 마십시오

채널을 통해 다음 되감기 콘텐츠를 더 많이 얻을 수 있습니다 지켜봐 줘서 고마워 [음악 재생]

Powering the Future of Agriculture through Google Solutions (Cloud Next ’18)

[음악 재생] CRAIG Ganssle : 오늘, 우리는 인공 지능과 어떻게 우리 회사가 Google과 협력하고 있습니다 세계 전역의 식량 생산

제 이름은 크레이그 갠슬입니다 그리고 저는 회사의 설립자이자 CEO입니다 조지아 애틀랜타에서 CAMP3 FARMWAVE라는 제품이 있습니다 인공 지능은 중요한 역할을 할 수 있습니다

세계적인 식량 생산, 몇가지 말하자면 내가 너에게 물었다면, "이게 뭐야?" 사과라고 말해 줄거야 하지만 내가 말하면, 이제 나에게 증명해 줄까? 이것이 사과라는 걸 증명 해줘 어떻게 알았어? 왜냐하면 우리가 아이들, 유치원 또는 유치원이었을 때, 우리 모두 똑같은 것을 보았습니다 그림과 flashcard입니다

그리고 그것은 사과를 말했다 그게 뭐야? 그게 사과 야 그러나 그렇게 보이지는 않습니다 사과 라는게 무슨 뜻이야? 그게 어때? 그것은 너무 다르게 보입니다 또는? 이것들은 모두 사과입니다

그러나 인공 지능을 이용한 세계 식량 생산에서, 우리는 그것을 증명해야합니다 그리고 우리가 그것을 증명해야 할뿐만 아니라, 그것은 사과이지만, 모든 병원균, 해충, 그리고 거기서 어떤 작물도 감염시킬 수있는 잡초 침입 식물 병리학에서 인공 지능의 과제에 오신 것을 환영합니다 농업에서 이미지 인식과 같은 것을 사용하는 것은 어려운 일입니다

농작물의 병원균과 병충해를 확인하는 것 또는 식물 – 토마토, 감귤류, 줄기 작물, 뭐든지 – 일찍 그러나 이것은 가장 중요한 단계 중 하나입니다 성장하는 음식에 우리가 병원균을 확인하고 감염을 조기에 발견 할 수 있다면, 그건 우리가 화학 물질을 덜 뿌릴 수 있음을 의미합니다 즉 작물 파괴가 적고 작물이 많다는 뜻입니다

수확량 그것은 더 많은 음식을 의미 할 수 있습니다 이것은 전 세계적으로 정말로 중요한 산업입니다 우리 모두 먹어야하기 때문입니다 Fei-Fei Li 박사가 최선을 다했습니다

새 데이터 세트를 작성하십시오 그래서 FARMWAVE에서 우리가해야 할 일이 있습니다 우리는 전 세계를 검색했습니다 대학, 대기업, 농민, 소규모 주주 – 이미지 캡처 및 구축 큐레이팅되고 카탈로그 화 된 데이터 세트 식물 병리학을위한 이미지 인식 작물 손실을 줄일 수 있습니다 FARMWAVE는 농업에 종사하는 사람들을 연결하는 앱입니다

그들의 농장과 기술 및 서로와 그것은 단지 인공 지능 이상입니다 하지만 그 뒤에있는 진정한 강국입니다 지난 몇 년 동안 우리는 FARMWAVE를 개발해 왔으며, 우리는 조종사와 세계의 개념을 증명했습니다 몬산토 (Monsanto), 신젠타 (Syngenta), 바이엘 (Bayer) 인도, 프랑스, ​​미국, 전 세계에 – 우리가 FARMWAVE를 얻을 수 있다면 전 세계의 농부들의 손에 우리는 줄이기에 정말 좋은 기회가 있습니다

작물 파괴 20 % ~ 30 % 구성 요소 중 하나는 공동체로서 농민 서로 이야기하기 오늘날 그들은 Twitter 및 Instagram과 같은 것을 사용합니다 그러나 일상적인 일과 그들이 얼마나 빨리 움직이는 지, 농장에서해야 할 모든 일, 그들은 Twitter와 Instagram을 사용하고 있습니다 그러나 뉴스의 모든 소음과 그들이 따르는 모든 것 중간에 갇혀있는 것 같아요

당신도 재배자가 누군지는 말할 것도 없습니다 대기업 이해 관계자를위한 성장 그들이 식물 실험을하고있는 곳, 그 정보는 독점적이며 공공 웹에 나가십시오 FARMWAVE는 폐 루프 커뮤니티를 제공합니다 연구자, 경제학자, 농민 모두 들판을 만들어 협력 할 수있다 거의 실시간으로보고합니다

이를 통해 우리는 데이터를 올바르게 보유 할 수 있습니다 그들의 손바닥에 오늘날 농업에서 많은 일이 일어나고 있습니다 전 세계에는 여러 회사가 있습니다 자율 차량에 시도하고있다

존 디어는 오랫동안 그것을 해왔습니다 우리는 수십 년 동안 자율적 인 트랙터를 가지고있었습니다 그들은 훨씬 느리게 움직이며 아무도 그들의 방식을 따르지 않습니다 그러나 그들은 한동안 그것을 해왔습니다 무인 항공기, 위성 이미지, 하이퍼 스펙트 럴 컬러 이미지,이 모든 데이터 농업에 매우 중요합니다

그리고 많은 회사가 있습니다 우리가 할 수있는 방법에 영향을 미치려고 전세계에 이 모든 데이터를 더 잘 활용하십시오 우리의 농업에서 더 나은 결정을 내릴 수 있습니다 Howard Buffett는 "40 Chances"라는 책을 썼습니다 생각해 보면 농부는 평생 동안 그것을 얻는 평균 40 기회

그리고 그게 다야 그들이하는 모든 일, 일상 생활, 매우 계절적입니다 봄에 모든 식물이 수확하여 얻습니다 가을에 결과 아무리 효과가 있더라도 내년에 다시 시도 할 수 있습니다

인디애나주의 농부, 톰 팜스의 크리스 톰, 그들은 약 45,000 에이커 농사를 짓는다 그들은 미국에서 가장 큰 재배자 중 하나입니다 그는 한때 나에게 무언가를 말했다 기존 기술 위에 더 많은 기술을 추가하지 마십시오 새로운 기술을 추가하기 위해서

그래서 우리는 사물을 육상에서 훈련하려고합니다 FARMWAVE와 우리의 인공 지능 이미 휴대하고있는 기기로 작업 할 수 있습니다 그 (것)들 또는 그들이 이미 오늘 사용하고있다, 무인 항공기 및 일부 기계류와 같은 우리는 많은 기술을 활용합니다 Google Cloud Platform 내에서 최근에, 우리는 일하는 알파 회사 중 하나였습니다 AutoML

그리고 우리는 University of Georgia 농업 확장 – 우리가있는 곳, 애틀란타 – 인터넷 이미지 컨소시엄 (Consortium for Internet Imagery) 데이터베이스 시스템 조지아 대학과 약 19 개 대학이 소유 세계 각지에서, 3 만 5 천 개가 넘는 식물 종에 관한 20 년의 이미지 데이터입니다 그래서 우리는 조지아 대학과 긴밀히 협력했습니다 그리고 우리는이 데이터베이스의 복사본을 가지고 있습니다 그리고 우리는 분류하고 라벨을 붙이기 시작했습니다

FARMWAVE를 통해 이미지를 태그 지정하고 실행합니다 매우 도전적이었습니다 20, 19, 18 년 전, 우리는 휴대 전화의 종류가 없었어요 우리가 오늘 가지고있는 따라서 사진은 실제로 사용할 수 없습니다

그것들은 좋은 품질이 아닙니다 그러나 우리가 더 최근의 이미지를보기 시작하면서, 우리는 더 나은 품질을 가지고 있습니다 일부는 좋은 그림입니다 일부는 그렇지 않습니다 식물 병리학에서, 당신은 정말로 일어나야 만합니다

닫고 잎의 정말 좋은 그림을 얻으십시오 정말로 조기 발견을 위해 병원체 또는 해충을 식별 할 수있는 영향을 미칩니다 추천과 치료를한다 입력란에 입력하십시오 우리는 일찍부터 카운팅 시퀀스를 얻었다

오늘날 농민들은 생산량 예측에 도움을 줄 것입니다 옥수수의 귀에있는 핵을 세어 샤피와 함께 해 이제는 얼마나 많은 사람들이 농업에 시간을 할애했는지 모르겠습니다 하지만 7 월에 남부 조지아 열에 있다면 Sharpie와 함께, 그리고 당신은 커널을 계산하려고합니다

옥수수의 귀에, 그것은 끔찍합니다 그리고 당신이 그것을 굴릴 때쯤에, 손에 땀이 마커를 씻어 내었습니다 그리고 당신은 실제로 좋은, 정확한 카운트를 가지고 있지 않습니다 그래서 일부 Vision API 기술을 사용하여, 우리는 다음을 허용하는 시스템을 개발했습니다 너는 옥수수의 귀를 찍고 그것을 180도 회전시키고, 다른 사진 찍어

그리고 약 2 초 만에 계산됩니다 우리는이 카운트에서 95 % 이상 정확했습니다 연속적으로 – 실내, 실외, 관계없이 다른 빛 수준의 이는 17 %에서 20 % 아이오와 옥수수에 따르면 판 나중에 올해는 우리가 될거야

중간 이미지에있는 것을 시작합니다 스탠드 카운트 (Stand Counts)라고합니다 스탠드 카운트 (Stand Counts)는 농부들이 얼마나 많은 사람들인지를 알 수있게합니다 주어진 행에있다 때로는이 이미지를 UAV가 가져올 수 있습니다

때로는 땅에 찍히는 경우도 있습니다 토마토, 와인 포도의 클러스터 수 수율 예측에 도움이됩니다 농민들이 더 많은 결정을 할 수있게되면, 전반적인 세계 식량 생산이 더 좋습니다 우리를위한 이미지 인식은 시간이었다 자, 어떻게 시작할 지 생각해 보겠습니다

오늘이 일반적으로 어떻게 수행되는지 알려드립니다 농부가 들판으로 나간다 또는 위성이 사진을 찍습니다 또는 무인 항공기가 사진을 찍습니다 그리고 그들은 고통이 있음을 봅니다

현장에서 그런 다음 누군가를 보내면 사진을 찍을 것입니다 아마 농부는 그것이 무엇인지를 압니다 아마 그들은하지 않습니다 오늘날에도 우리는 여전히 새로운 질병이 나타나기 시작합니다 그래서 그들은 이렇게 말합니다

좋아, 나는 이것이 무엇인지를 정말로 모른다 농학자 한테 이걸 가져다 줘야 해 그러나 나는 아무데도 살고 있지 않다 아이오와에서 옥수수 바다에서 가장 가까운 대학교는 4 시간 거리에 있습니다

그래서 나는 지역 농학자에게 전화를한다 그는 두 국가가 떨어져 있습니다 다음 주에 아마 내게 올거야 그래서 그는 대학에 손을 뻗친다 그들은 누군가가 나와서 가져갈 수 있다고 말한다

며칠 만에 봐 그래서 그들은 나옵니다 그들은 한 번 봐 그들이 그것이 무엇인지 안다면, 그들은 권고를합니다 그들은 처방전을 씁니다

그리고 농부는 그들의 딜러에게 전화합니다 그리고 그들은 나가서 제초제, 살균제, 살충제, 뭐든간에 그들이 무엇인지 모르면, 그들은 더 연구를해야합니다 아마 며칠이 걸릴 것입니다 아마도 또 다른 주일이 걸릴 것입니다

기후, 날씨, 특성, 그들이 가지고있는 것, 이것은 퍼질 수 있었다 이것은 작물의 5 %에서 20 % ~ 30 % ~ 40 %로, 수확량을 줄이고 음식을 잃어 버리게됩니다 우리에게는 시간이 걸립니다 FARMWAVE 및 이미지 인식 기능 몇 초 만에 이런 일이 일어납니다 현재,이 대학의 35,000 종 조지아의 20 년 농작물 이미지를 통해 시작되었습니다

이것은 거대한 데이터베이스입니다 옥수수만으로 옥수수의 모든 질병 우리에게 몇 년이나 걸렸습니다 사과에서 나온 그림을 기억한다면, 우리는 모든 다른 단계에서 작물을 봐야합니다 그 모든 다른 단계에서 그 작물의 모든 질병 초기부터 중증도가 20 %, 중증도가 60 %, 완전히 쇠약 해짐 정확한 결과를 얻을 수 있습니다 우리의 이미지 라이브러리는 유일한 라이브러리 중 하나입니다

우리는 오늘 우리가 그것이 적절히 확인되었다고 말했다 박사 학위 병리학 자 및 곤충 학자 전 세계에서 그러나 우리는 높은 정확성을 가져야합니다 그래서 우리는 그렇게해야합니다 그러나 더 많은 시간이 걸립니다

농부들이 농지에 나가면 – 농지를 다녔다면이 플래 카드를 볼 수 있습니다 바로 거기에 어떤 작물이 심고 있는지 알려줍니다 이 경우 Pioneer 버전입니다 Google Vision API를 사용하여 농민 현장 보고서를 매우 빨리 채울 수있다 단순히 사진을 찍고, 현수막의 정보, 그것을 현장 보고서에 넣으십시오

그런 다음 나들이 할 때 현장보고를 계속합니다 그들의 차량의, 그리고 그들은 실제로 들여다보기 위해 들판에 들어간다 병원체 또는 해충 문제에서 이렇게하면 많은 시간을 절약 할 수 있습니다 어쩌면 농부가 하루에 몇 분이면 될지도 모릅니다

그러나 매년 전 세계 농민들을위한 그 화합물 이런 종류의 정보가 중요합니다 주정부 규정 및 지역 카운티에 신고해야합니다 보고서 따라서이 정보는 중요합니다

Google Vision API 덕분에 엄청난 도움이되었습니다 이 정보를 매우 빨리 추출 할 때 들판으로가 이것은 현장을 약간 쳐다 본 것입니다 FARMWAVE 내부에보고하십시오 우리는 병원균과 해충을인지함으로써 그들을 돕습니다

그러나 우리는 Google Cloud의 모든 것을 활용합니다 FARMWAVE가 살고있는 곳에서 거의 실시간으로 정보를 얻을 수 있습니다 우리는 또한 그들이있는 곳을 위치 정보 태그로 지정합니다 그것은 매우 중요합니다 그들이 들판에 나가면, 무엇을 이 분야에서 일어 났습니까? 우리는 날씨, 날씨, 장소, 시간과 날짜

내년 FARMWAVE의 미래는 다른 기계류를 허용하는 2019 년 앱 스토어 출시 농업 내 모든 데이터 포인트 FARMWAVE에 연결하여 해당 데이터를 상호 연관시킬 수 있습니다 더 잘 협력하십시오 그 말은 농부가 들판으로 나가면 현장보고를하기 위해 FARMWAVE를 엽니 다 그들이있는 곳을 봅니다 그리고 말하길, 당신의 존 디어 파종기를 당기게하십시오

네가있는 곳을 내가 알고 있기 때문이다 몇 초 후에 내가 너에게 무엇을 말할거야 이 분야에서, 어떤 날짜에, 어떤 씨앗에 심었습니까? 다양성, 어떤 간격에서, 어떤 압축에서 그리고 관개 센서 데이터를 가져와주세요 이 작물이 얼마나 많은지 물어볼 게

그것이 땅에 들어간 날부터 가지고있다 이 순간까지 당신이 서있는 곳에서 정확하게 그 때까지 그것은 그 결과를 푸시합니다 현장 보고서에 표시됩니다 그런 다음 사진, 메모, 비디오, 받아쓰기를 할 수 있습니다

그것을 저장하십시오 그리고 그 지역 사회에서 그것을 구할 때 앞서 언급 했으니 곧 공유 할 수 있습니다 귀하의 농경 학자, 연구원, 재배자, 상인 세계 어느 곳에서나 거의 실시간으로 몇 년 전, 나는 즐거움을 가졌다 프랑스의 Emmanuel Macron 대통령을 방문했다

프랑스는 포도주와 치즈로 세계의 수도입니다 그리고 그들이 어떻게 다르게 성장하는지 보는 것은 환상적이었습니다 프랑스에서 그들이 미국에서하는 것보다 나는 요르단 암만과 레바논 베이루트에 갔다 그들이 프랑스에서하는 것보다 그들이 어떻게 다르게 성장하는지 그들이 미국에서하는 것보다

프랑스는 GMO가 금지 된 국가 중 하나입니다 그래서 그들은 서로 다른 스타일을 가지고 있습니다 그러나 데이터는 여전히 중요합니다 프랑스 전역의 농민들이 함께 일합니다 정부 보조금을 통해 매년 새로운 기술에 대한 우리는 지난 몇 년 동안 프랑스를 방문했습니다

여러 번, 다른 공동 작업자, 재배자, FARMWAVE가 어떻게 잠재적으로 할 수 있었는지에 대한 정부와도 국가가 데이터를 집계하는 데 사용하는 단일 플랫폼이어야합니다 앞으로는 예측 모델링을 수행하십시오 우리가 인공 지능을 볼 때, 그리고 우리가 기계 학습과 깊은 학습을보십시오 Google Cloud Platform을 활용하여 무엇을 할 수 있는지, 그것은 하워드 버핏이 말한 40 가지 기회에 관한 것입니다 그것은 우리가 할 수있는 것과 할 수있는 것입니다

우리가 오늘 얻는 지식에 기반한 미래를위한 것인가? 나는 최근에 한 여인과 대화를 나눴다 Suzanne Wainwright-Evans 박사 그녀는 세계적으로 유명한 곤충 학자 Buglady입니다 그녀는 FraMWAVE에 대해 꽤 회의적이라고 Craig는 말했습니다 나는 수십 년의 경험에서 왔습니다

그리고 그 경험과 제가 현장에서하는 일은, 우리는 AI에서 편향 (bias)을 호출합니다 그리고 그녀는 절대적으로 맞습니다 편견이 많습니다 곤충 학자들이 볼 수있는 많은 것들이 있습니다 곤충 학자로서의 본성과 마찬가지로 우리가 시스템에서 훈련하기가 정말 어려울 것입니다

그리고 우리는 그것에 열심히 노력하고 있습니다 하지만 사실은 Dr Suzanne Wainwright-Evans입니다 영원히 여기 없을거야 그리고 오늘, 그것은 다음 Buglady가 된 것은별로 인기가 없습니다

그래서 우리는 많은 곤충 학자들을 갖지 못합니다 2017 년 에반스 박사는 3 주 동안 집에서 보냈습니다 나머지는 길 위에 있었다 그녀는 다른 나라에서 매우 인기가 있습니다 그들은 심지어조차하지 않는 해충의 침입을 목격한다

그것이 무엇인지 압니다 그리고 농작물을 구하기 위해 그녀의 도움이 필요합니다 그래서 에반스 박사 같은 사람과 일하고 있습니다 기계 훈련에 도움을 주며 AI 훈련에 도움을줍니다 우리가 병원체 또는 해충의 침입에서보고있는 것을 알기 위해, 지난 커플에 대한 지식을 유지하는 것이 중요합니다

농업의 미래를위한 수십 년 내일 우리는 더 나은 결정을 내릴 수 있습니다 이들은 우리가 함께 일하는 파트너 중 일부입니다 분명히, 나는 조지아 대학에 대해서 이야기했다 우리는 Google X로 초기 작업을했습니다 FARMWAVE 실제로 Google Glass에서 시작되었습니다

저는 Google Glass의 얼리 어답터였습니다 나는 뉴욕까지 갔다 나는 그곳에 와서 한 쌍의 구글 글래스를 갖도록 요청 받았다 그리고 몇 달 후에 얻었습니다 아이오와 주 디모 인에서 열린 존 디어 (John Deere) 개발자 컨퍼런스에 참석했습니다

그리고 John Deere는 개발자를 초청했습니다 이 회의를 위해 전 세계에서 온 사람들입니다 그리고 그것은 우리에게 새로운 것이 무엇입니까? 개발자들은 존 디어 (John Deere)를 보았습니다 말하길, 음, 그게 우리에게 새로운 것이 무엇 이니? 이 한 신사가 내게 다가왔다 그리고 그는 크레이그 (Craig), Google에 대해 이야기하고 유리는 무엇을하고 있습니까? 많은 사람들이 우리에게 그것에 대해 물었고 그것은

나는 말했다 이 시점에서 FARMWAVE는 아직 태어나지 않았습니다 우리는 방금 Glass에 대해 이야기하고 이야기했습니다 그것은 상자에서하고 있었다 그리고 이것은 Explorer 판과 함께했습니다

그리고 조금 더 배웠을 때 농업에서의 중대한 문제 해결, 작물 정찰병 작전에 대해 배웠습니다 이런 것들을 확인하기 위해 나는 우리가 이미지 인식 기술을 사용할 수있다 이러한 문제를 해결하고 이러한 결정은 더 빠릅니다 실제로 Google Glass에서 시작되었습니다 우리는 2015 년 몬산토에서 조종사를 만났습니다

일리노이에있는 약 25 개의 서로 다른 쌍의 Google Glass에서 농부들이 들판으로 나갈 수 있었던 곳 단순히 목소리를 사용하고 사진을 찍으십시오 그리고 그것은 식별 할 것입니다 또는 핸즈프리 옵션을 사용할 수 있습니다 유리가 그것을 잡고 커널을 센다 몇 초 만에

이것이 우리가 작업 한 일부입니다 GlassFish는 Google X에서 초기에 사용했으나 현재 Glass에서 계속 작동합니다 사실 어제 우리는 전 세계적으로 FARMWAVE를 시작했습니다 iOS 및 Android 앱 스토어에서 나는 어제 애틀란타에서 열린 ag 기술 회의에 참석했다 우리는 글로벌 출시를했습니다

그리고 우리는 80 개국을 가지고 있습니다 지난 60 일 동안 34,000 명 누가 FARMWAVE를 일찍 채택하기로 동의 했습니까? 그것은 중요한 문제입니다 우리는 2050 년까지, 사람들의 행성에있을 것입니다 앞으로 30 년 동안 더 많은 식량을 재배해야한다 우리가 지난 8,000 년보다 적은 자원, 적은 토지, 더 많은 입을 먹을 수 있습니다

기술은 중추적 인 역할을 수행 할 것입니다 이 일을하는 데있어서 그리고 우리는 그 일의 일부가되어서 정말 기쁩니다 그리고 우리는 강력한 자원 없이는 할 수 없었습니다 Google Cloud의 이 보고서에서 볼 수있는 이미지 인식 내에서 01, 아래쪽에지도가있는 것을 볼 수 있습니다

필자는 또한 지형 공간 기능을 당신이 현장보고를 받아 당신이 어디에 있는지 보여주고, 지도에 표시되는 자, 내가 아이오와에 있고 옥수수를 재배하고 있다면, 나는 문제가 있다는 것을 알고, 나는 아이오와 옥수수 재배자와 함께이 공동체 중 하나에서 협회, 그리고 나는 그림을 가져 간다 나는 현장보고를하고, 나는 이웃 농민들에게 경고한다 그들은 질병이 실제로있는 곳을 볼 것입니다 거의 실시간으로 전파됩니다 대시 보드보기를 통해 FARMWAVE 커뮤니티의 관리자입니다

또는 FARMWAVE 그룹의 경우 실제로 모든 재배자를보십시오 그리고 다른 태그와지도의 다른 태그를 통해, 실제로 성장하고 확산되는 것을 볼 수 있습니다 이것은 경고 효과가 있습니다 다른 농부들에게 무슨 일이 일어나는지 알려라 그리고 그들의 방법 오는 무엇

그리고 그것은 그 공동체에서 그 농부들에게 허용됩니다 조언을 구하기 위해 전 세계의 다른 사람들과 의견을 나눌 수 있습니다 하루 약 860 마리의 소를 기르는 위스콘신주의 낙농가 하루에 세 번, 그가하고있는 일에서 꽤 발전했습니다 그러나 8 마리의 소가있는 인도의 낙농가 지식이나 자원 또는 스킬 셋이 없습니다

위스콘신에있는 신사는 그렇게합니다 FARMWAVE를 통해 사진을 보내고 조언을 구할 수 있습니다 그 사진들이 현장보고에 있기 때문에 – 즉, 위치 및 날씨 태그가 붙은 농부 위스콘신 주에서는 즉시 인도의 농부에게 조언 할 수 있습니다 네가 8 마리의 암소를 가지고 있음을 알았다 당신은 매우 습한 기후에 살고 있습니다

여기 당신이 상대하고있는 조건이 있습니다 그것은 유방염 가능성이 높습니다 그리고 여기에 대해해야 할 일이 있습니다 그리고 그것은 다른 부분의 농부들에게 중요합니다 성장하는 국가의 세계 그 8 마리의 암소는 그들의 가족의 지속 가능성입니다

[음악 재생]

Machine Learning on Google Cloud Platform (Cloud Next ’18)

[음악 재생] 안녕, 여러분 모두들 안녕

관객 : 안녕하세요 크리스 클리브런 : 좋아요 제 이름은 크리스 클레 ​​반입니다 Justin Lawyer와 함께 우리는 제품 관리자입니다 Google 클라우드에서 우리는 당신과 대화 할 것입니다

GCP에서 기계 학습에 관한 정보 그래서 저는 매우 투명한 사람입니다 나는 그것을 무엇보다 명확하게 할 것입니다 나는 당신의 테이크 아웃이이 이야기에서 나온 것이기를 바랍니다 하나, 당신이 정말로 흥분하기를 바랍니다

기계 학습으로 할 수 있습니다 둘, 자신감을 갖기를 바래 조직에서 기계를 성공적으로 구현할 수 있는지 확인하십시오 Google Cloud로 학습하십시오 셋째, Google AI의 관심사를 통해이를 신뢰하십시오

우리는 당신의 ML을위한 올바른 플랫폼이자 파트너입니다 워크로드 세 번의 테이크 아웃 이요 우리는 당신이 그 테이크 아웃을 얻으려고 이야기 할 것입니다 우리가 그것을 파고 들기 전에, 나는 단지 당신에게 감사의 말을 전하고 싶다

우리 모두는 바쁜 삶을 사는 데 제한된 시간을 가지고 있습니다 Google Cloud, 다음 컨퍼런스, 이 세션 고마워 ML이 당신을 위해 무엇을 할 수 있습니까? 그것은 놀라운 것들을 많이 할 수 있습니다 조직에 경쟁이있는 경우, 그들이 ML을보고 있다고 보장합니다

자, ML은 반드시 정신병자를 발명하는 것이 아닙니다 교통 수단을 이용하는 경우 순간 이동을 어떻게 만들지가 아닙니다 기존 비즈니스 및 프로세스를 이용하는 것입니다 다시 상상하고 재발견 할 수있는 능력 너 오늘하고있는 일 ML에는 세 가지 종류의 큰 영역이 있습니다

통찰력을 얻는 데 도움이 될 수있는 도움이 될 수 있습니다 또는 고객이 제품 혁신에 도움을 줄 수 있습니다 자동화에 도움이됩니다 진짜 자동화를 빨리 봅시다 자가 운전 트럭과 자동차 – 모두가하는 사업 교통과 택시로 오늘하고있다

그것을 더 빠르고, 저렴하게, 더 쉽고, 더 안전하게 만들어줍니다 혁신을 살펴 보겠습니다 우리 고객 중 한 명이, 디즈니, 우리의 제품 AutoML을 사용하여 혁신 그들의 소매 서비스 사용자 경험을 원했습니다 그들이 찾고있는 제품을 정말 빨리 찾을 수 있습니다

그래서 그들은 웹 인터페이스를 사용하여 커스텀 모델을 만들었습니다 전문 지식이 필요하지 않습니다 그리고 지금 그들의 수색 경험에서, 당신은 "해변에 미키 마우스"를 입력 할 수 있습니다 해변과 관련된 모든 제품을 찾습니다 그리고 미키 마우스 – 정말로 멋지다, 정말로 쉽다

그리고 통찰력 – 당신이 비행기라고 가정 해 봅시다 제조사, 항공기, 그리고 당신은 정말로 안전에 관심이 있습니다 IoT 덕분에 엄청난 양의 데이터가 있습니다 이 악기들이하고있는 것 그리고 그 데이터를 수집한다면 어떻게 처리할까요? 그리고 아마 당신이 그걸 예측할 수 있다면 어떨까요? 비행기 정비 전에 필요한 정비 부품 정기적으로? 안전에 대한 통찰력, 그래서 무엇에 대해 흥분을 느끼는지 귀하의 조직이 할 수 있습니다

그래서 손을 보여줍니다 누가 여기에, 그들의 조직, 찾고 있습니다 오늘 기계 학습으로? 큰 손을 한 번 더 보여줍니다 여기 누가 기계 학습이 무엇인지 이해한다고 생각합니까? 네가 반 정도는 마지막 질문 – 누가 기계 학습 모델인지 알 수 있습니까? 네, 대부분

그래서 이것에 대해서 간단히 만질 것입니다 기계 학습은 데이터에 관한 것이며 데이터를 가져 오는 것입니다 통찰력과 행동 거기에는 모든 종류의 데이터가 있습니다 이미지, 구조화되지 않은 텍스트, 관계형 데이터베이스, 시퀀스 정보

그리고 기계 학습은 그 데이터를 취하는 것입니다 다양한 종류의 ML 알고리즘을 취하고, 그 알고리즘을 통해 그 데이터를 통과 거대한 인프라 세트가 필요합니다 그리고 그 데이터를 통과하면, 기계 학습 모델이 생성됩니다 그리고이 모델은 점점 좋아집니다 더 많은 데이터, 더 나은 알고리즘, 더 많은 인프라

그리고이 모델을 사용하여 통찰력, 자동화, 혁신 그래서 우리 모두는이 서비스, 웹 검색을 알고 있습니다 Google은 AI 회사이자 데이터 회사입니다 18 년 동안 세계 데이터 수집, 모든 사람이 접근 가능하고 사용 가능하게 만듭니다 우리는이 분야에서 많은 전문 지식을 보유하고 있습니다

대규모 데이터 센터, 인공 지능 전문가, 데이터 전문가 Google Cloud가 제공하는 전문 기술은 ML에 너에게 이것은 우리가 내부적으로 가지고있는 것에 대한 멋진 작은 이야기입니다 ML을 성공적으로 구현했습니다 Brein이라는 내부 AI 팀은 ML 모델을 만듭니다

알고리즘을 통해 수많은 데이터를 가져와 대규모 인프라 스트럭처를 통과시켜야합니다 ML 모델을 만들 수 있습니다 하지만 Google의 모든 소프트웨어 개발자는 아닙니다 ML 전문가입니다 우리가 한 일은 우리의 소프트웨어를 둘러 보았습니다

개발자를 교육하고 기존 모델로 ML을 구현하는 방법 그래서이 그래프가 보여주는 것은 소스 코드의 개수입니다 개발자가 Brain의 ML 모델을 사용하는 저장소 AI를 내부 서비스에 성공적으로 구현하기 위해, 외부 제품 Google은 이러한 유형의 개념을 Google Cloud에 도입합니다 오른쪽에는 여러 제품이 있습니다

ML과 AI를 통합했습니다 나는 그들 모두에 대해 이야기하지 않을 것이다 나는 두 가지에 대해서 이야기 할 것이다 내 즐겨 찾기 그래서 저는 아빠입니다, 저는 세 명의 아이들이 있습니다

그리고 저는 아이들의 디지털 사진을 많이 찍었습니다 어리석은 금액, 아마도 총 10 만개 그리고 저는이 Mac을 가지고 있었고 하드 드라이브가 몇 개 있었는데, 저장 용량이 걱정되어 Google 포토가 생겼습니다 무료 무제한 저장 글쎄, 잘됐다

값이 싸고 확장 가능하며 물건을 뒷받침하는 것에 대해 걱정해야합니다 그러나 실제로, 혁신은 검색 기능이었습니다 얼굴 인식 기능이 있으며 우리 애들이 누군지 알고 있습니다 내 얼굴 사진을 클릭 할 수 있습니다 내 전화에서 해변이나 보트 같은 단어를 입력하고, 이제 10 만 장의 사진을 찍습니다

내가 찾고있는 정확한 사진을 찾습니다 과거에는 20 분이 걸렸을 것입니다 ML은 혁신적이며 그렇게 할 수도 있습니다 조직의 규모에 관계없이 기술 직원 유형에는 ML을 구현하는 여러 가지 방법이 있습니다 그리고 우리는 두 가지 방법에 대해 이야기 할 것입니다

첫 번째 방법은 ML 모델을 사용하는 것입니다 ML 전문가가 될 필요는 없습니다 소프트웨어 개발자 일 필요가 있습니다 또는 귀하의 조직이 REST API를 사용하는 프로그래밍 언어 사용하기 쉽다

CXO 나 결정을 내리는 경영자라면, 프로젝트에 자금을 지원합니까? 높은 품질의 모델을 만드는 것은 매우 위험합니다 소프트웨어 개발자에게 API를 사용하게한다 그것을 구현하고, 정말로 빨리 시작하십시오 그리고 다른 길은 커스텀 모델을 만드는 것입니다 어쩌면 당신은 당신의 공간에서 도메인 전문가입니다

또는 데이터에 액세스 할 수 있고 원하는 자신 만의 ML 모델을 만들 수 있습니다 그래서 우리는 전문가들을위한 많은 도구들을 가지고 있습니다 빠르고 저렴한 ML 처리를 위해 그리고 여기가 저스틴에게 넘겨 줄 것입니다 그리고 그는 이것들에 대해 조금 이야기 할 것입니다

자세한 세부 사항 크리스틴 고마워 고마워, 크리스 그래서와 주셔서 대단히 감사합니다 오늘, 우리는 이야기 할 것입니다

당신의 직업에 맞는 도구를 어떻게 찾을 수 있습니까? 당신의 분야에서 전문가로서? 그래서 우선, 크리스가 언급 한 것처럼, Google은 많은 기계 학습 모델을 만들었습니다 특정 애플리케이션이 Google 애플리케이션을 강화할 수 있습니다 그래서 우리는 당신 주위에 REST API를 포장했습니다 소비하기 위해 우리는 이것을 지각 API라고 부릅니다

그들은 일반적으로 인간의 인식 주위에 있기 때문에 사용자가 애플리케이션과 상호 작용하는 방식 이렇게 빨리 다음 슬라이드로 이동하면, 이 API에는 크게 세 가지 범주가 있습니다 하나는 사이트에 관한 것이고 다른 하나는 대화에 관한 것입니다 세 번째 것은 언어에 관한 것입니다 아마 이들 각각을 걸을 것이 중요하다고 생각합니다 정말 신속하게 당신이 일종의 즉석에서 이해할 수 있습니다

코딩 없이도 얻을 수있는 기능 REST API를 사용하는 것 외에는 귀하의 응용 프로그램에 그래서 우선, 시력을 위해, 당신이 이미지를 가지고 있다고 말하면서, 그 이미지의 내용을 이해하고 싶습니다 자동으로 이미지를 Vision API에 전달하면 그 이미지 안에있는 물체가 무엇인지를 이해할 수 있습니다 자동으로, 그리고 당신은 얼굴이 어디 있는지 알아낼 수 있습니다, 다른 사람들에게 알릴 수 있습니다 동영상 이해 API의 경우 동영상, 장면 전환, 다른 대상을 알려줄 수 있습니다

해당 비디오 내에서 기본적으로 검색하고 찾을 수 있습니다 동영상 내 또는 동영상 전체에서 원하는 내용 여러 동영상을 전달하는 경우 OCR – 종종 사람들은 스캔 한 문서를 가지고 있습니다 그리고 무엇을 이해해야합니까? 도크는 그 문서에 있습니다 어쩌면 그것은 PDF 파일 일 수도 있고 GIF 파일 일 수도 있습니다

너는 할 수 있어야한다 GIF, JPEG가 아닙니다 API에 전달할 수 있습니다 그런 다음 자동으로 감지합니다 그 문서의 단어들은 무엇입니까? 그 원시 텍스트를 나중에 줄 수 있습니다

또는 장면의 이미지를 가지고 있거나, 벽에 징후가있다 그것은 당신에게 그 사인에 관한 텍스트를 줄 것입니다 따라서 OCR은 일상적인 응용 프로그램에서 정말 편리합니다 성인용 콘텐츠는 사실 실제로 하나입니다 정말로 중요합니다

사용자가 제출 한 콘텐츠를 얻으십시오 당신은 그 이미지에 무엇이 있는지 모릅니다 당신은 당신이 아닌지 확인해야합니다 사용자에게 부적절한 이미지를 제공합니다 따라서 성인용 콘텐츠 검색은 정말 쉬운 방법입니다

그 이미지에서 무슨 일이 일어나고 있는지 감지 할 수있게 당신이 걸러 내야 만하는 것이죠 귀하의 사용자에게? Conversation 클래스의 API의 경우 – 오디오를 텍스트로 – 스트리밍 오디오가있을 수 있습니다 그 다음 파일은 당신이 무엇을 말하고 있는지 알아 내야합니다 그런 다음 그 사건을 베끼고 그것을 당신에게줍니다 그것은 비디오, 사람들과의 실제 대화, 텔레비젼 쇼를 위해 무엇이든간에

그 반대도 가능합니다 텍스트 문자열이있을 수 있습니다 당신의 사용자에게 읽어 줄 필요가있다 자, 문자열을 응용 프로그램에 전달합니다 그러면 합성 음성을 만듭니다

그런 다음 사용자에게 알릴 수 있습니다 채팅 봇은 사용자와 소통 할 수있는 방법입니다 채팅에서 직접 원하는 상호 작용을 프로그래밍 할 수 있습니다 사용자와 대화하고 특정 종류의 대화를 프로그래밍 할 수 있습니다 계속해서 고객 서비스 전화로 도움을 받으십시오

또는 그런 것들 언어 API에서, 자유 형식의 텍스트를 가지고 있다면 정말 어렵습니다 정말 도대체 무슨 소리 야? 우리는 밖으로지도하고 무엇의 맥락을 알아낼 것입니다 말하자면, 문장의 데이터 구조를 찾아 내고, 당신이 알아낼 수 있도록 말의 부분을주세요 좋아, 명사 란 무엇인가? 동사는 무엇인가? 이것들의 관계는 무엇입니까? 그리고 나서, 당신은 지능적인 것을 할 수 있습니다

그 구조와 감정 분석은 함께 전송되는 분위기는 무엇인가요? 그 단어들로? 우리가 가진 것은 우리는 많은 좋은 성공을 시도했습니다

예를 들어 고객 서비스의 정서를 모니터하는 것 이메일이나 채팅, 물건 나가기 관리자에게 에스컬레이션 할 수 있음 그래서 물건들이 나선형으로 나오지 않도록 할 수 있습니다 제어 또는 무엇인가가 공격적인지 이해할 필요가 있다면, 또는 평온한, 또는 행복한, 당신은 어떻게 분류하고 있는지 확인합니까 고객이 평점을 매기는 것이 적절하다면 서비스 콜, 그런 것들? 번역에서는 자동으로 번역하는 좋은 방법입니다 한 언어에서 다른 언어로 예를 들어 다음에 대해 조금 이야기하겠습니다

예를 들어, 당신이 게임 개발자라고 말하면, 당신은 온라인 커뮤니티를 가지고 있습니다 하지만 그들은 전세계에서 온다 다른 언어로 말하기 당신은 그들이 서로 이야기 할 수 있기를 원합니다 실시간 채팅에서 기본적으로 할 수 있습니다

다른 언어로 번역 할 수있는 능력이 있어야합니다 따라서 Translate API를 사용하면 정말 쉽습니다 또는 인바운드 고객 서비스를받을 수 있습니다 이메일을 보내고 언어로 번역 할 수 있습니다 고객 서비스 담당자가 고객이 이해할 수 있도록 그러면 고객에게 응답 할 수있는 적절한 문서를 찾을 수 있습니다

이 API에 대한 좋은 점은 기본적으로 REST API 만 있으면됩니다 기본적으로 코드 스 니펫을 제공합니다 당신은 그것을 당신의 앱으로 팝니다 당신이 정말로 바꾸어야 할 유일한 것 데이터를 가리키는 키와 URI입니다 그리고 짜잔, 떨어져

그것보다 더 간단해질 수는 없습니다 다음 질문은 성능이 어떻습니까? 실제로 얼마나 효과가 있습니까? 그들은 일반적인 사용 사례에 정말 좋습니다 경우에 따라 문제가있을 수 있습니다 Google이 결코 다루지 않았던 또는 상황을 처리해야 할 수도 있습니다 Google이 다루어야 할 것보다 훨씬 더 자세하게 설명합니다

예를 들어 Google은 볼트와 못의 차이를 쉽게 알 수 있습니다 하지만 당신이 제조업 자라고 가정 해 봅시다 생산 라인에 2,000 개의 볼트가 있습니다 귀하의 부품에 대한 차이점을 어떻게 알 수 있습니까? 글쎄, 우리가 가능하게 한 것은 Cloud AutoML 그래서 당신은 라벨이 붙은 모든 부품의 이미지를 제공 할 수 있습니다 그리고 우리는 그들을 구별하지 못할 수도 있습니다

라벨을주지 않으면 그런 다음 모델을 교육합니다 그런 다음 REST API 엔드 포인트를 얻을 수 있습니다 귀하의 응용 프로그램에서 사용하십시오 그래서 좋은 점은 사용하기가 정말 쉽다는 것입니다

그리고 당신은 기계 학습을 알 필요가 없습니다 우리는 당신을 위해 그것을한다 그런 다음 응용 프로그램에서 사용할 수 있습니다 그래서 다음 질문은, 음, 이것이 얼마나 효과가 있습니까? 실제로 모든 오픈 소스보다 효과적입니다 밖에있는 모델

따라서 훌륭한 실적을 올릴 수 있습니다 그리고 사용하기가 정말 쉽습니다 그래서 정말 도움이되었습니다 그래서 실제로 ML을 사용하는 방법 중 하나입니다 또 다른 방법은 데이터 과학자가 있다고 가정 해 봅시다

내 자신의 데이터를 가지고 있기 때문에 내 모델을 만들고 싶습니다 그리고 그것은 내가 다룰 필요가있는 커스텀 문제입니다 음,이 작업에는 두 가지 다른 방법이 있습니다 하나는 클라우드 관리 서비스를 사용하고 있습니다 그리고 이것들은 당신이하지 않는 서비스입니다

인프라를 다루고 싶다 우리는 당신을 위해 그것을 다룰 것입니다 그렇게하면 컴퓨터 학습 프로세스에 집중할 수 있습니다 그래서 우리는 Dataproc과 Dataflow를 가지고 있습니다 그래서 당신은 당신의 전처리를 다룰 수 있습니다

Dataproc은 본질적으로 Hadoop 및 Spark이지만 관리, 또는 Dataflow가 백엔드에서 Beam을 사용하고 있습니다 프로세싱을 처리하는 관점에서 머신은, ML 엔진 또는 기계 학습 엔진, 인프라 스트럭처를 자동으로 가동시킬 수 있습니다 그리고 우리는 그걸 좀 알아볼 것입니다 당신이 끝나면 그것을 찢어 버려라 따라서 인프라 스트럭처가 사라집니다

데이터 과학자들로부터 모든 최상위 프레임 워크를 지원합니다 그리고 우리는 Datalab을 가지고 있습니다 데이터 탐색을 쉽게 할 수 있습니다 먼저 Datalab에 대해서, 얼마나 많은 사람들이 실제로 Jupyter Notebook을 사용했습니다 주피터 노트북에 대해 알고 있습니까? 약 3 분의 1 정도가 될 것입니다

나머지 사람들은 그렇게 이해합니다 주피터 노트는 근본적으로 데이터를 가리킬 수있는 앱 귀하의 데이터를 분석 할 수있는 코드를 제공하십시오

데이터를 시각화하고, 반환하고, 즉시보고, 얻을 수 있습니다 몇 가지 피드백을받은 다음 반복하여 반복하고, 그것을 계속 추가하십시오 전체 노트북을 재생할 수 있으며, 당신은 그저 특정 스 니펫을 연주 할 수 있습니다 직장 동료와 공유 할 수 있습니다 그래서 그것은 정말로 탐험하고 시각화하는 훌륭한 방법입니다

및 프로토 타입 그래서 환상적인 도구입니다 Datalab에 대한 좋은 점은 모든 다른 클라우드 서비스에 연결하도록 미리 구성 BigQuery와 ML 엔진 등이 있습니다 따라서 클라우드에서 벗어나기 만하면됩니다 랩톱에서 로컬로 사용할 수도 있습니다

기계 학습 엔진은 정말 좋은 방법입니다 임의의 데이터 사이트에서 분산 학습 수행 모든 상위 프레임 워크를 사용하여 데이터를 처리 할 수 ​​있습니다 그리고 다시, 그것은 관리 서비스입니다 따라서 모델과 데이터를 가리키고, 그리고 당신은 단지 그것을 회전시킵니다 그것은 당신을위한 모든 분산 훈련을 담당합니다

당신은 그것에 대해 걱정할 필요가 없으며 종료됩니다 모든 것을 찢어서 사용하는 것에 대해서만 비용을 지불합니다 그래서 이것을하는 것이 정말 효율적인 방법입니다 실수로 해당 VM을 켜두는 것에 대해 걱정할 필요가 없습니다 한달 전에 고지를 청구하고 청구서를받을 때

이것에 대한 또 다른 좋은 점은 배치 예측 및 온라인 예측도 수행합니다 기본적으로 이러한 일괄 예측 작업을 실행할 수 있습니다 정말 효율적입니다 또는 온라인 예측을 위해 REST API 끝점을 만듭니다 당신의 모델을 위해 당신을 위해 그리고 어떤 양으로도 봉사하십시오

당신은 당신이 가지고있는 많은 수의 앱을 필요로합니다 정말 쉬운 방법으로 앱을 관리 할 수있는 좋은 방법입니다 다른 하나는 데이터 과학자들이 종종 모델 최적화를하지 않는다 그것은 일종의 고통이기 때문에 모든 다른 매개 변수를 변경해야합니다

데이터 세트에 적합한 구성을 찾으십시오 글쎄, 우리는 그것을 ML 엔진에 내장했다 그래서 그것은 실제로 그것을 당신을 위해 간단하게 만듭니다 매개 변수 만 입력하면됩니다 최적의 모델을 찾으십시오

그래서 좋은 모델을 찾기보다는, 실제로 데이터 세트에 가장 적합한 것을 찾는 것입니다 따라서 모델 실적을 향상시킬 수 있습니다 관리 관점에서 모든 것을 하나로 모으는 것은, 우리는 전체 ML의 모든 단계에 대해 다른 서비스를 가지고 있습니다 애플리케이션에 대해 처리해야하는 라이프 사이클 우리는 섭취 측, 전처리 측, 저장 및 탐색 및 실험, 시각화 측면, 모델 교육 및 제공, Data Studio를 사용하여 보고서를 만들 수 있습니다

그것 모두는 우리의 관리 서비스에, 당신은 인프라를 다룰 필요가 없습니다 모든 호출기를 관리하는 SRE를 보유 할 필요는 없습니다 이렇게하는 다른 방법은 직접 해보는 것입니다 자신 만의 솔루션을 선보일 수 있습니다 사실 몇 가지 매우 유효한 이유가 있습니다

왜 일부 고객은 이것을 원할 것입니다 당신은 연구자 일 수도 있고 당신 일 수도 있습니다 스택의 모든 부분을 변경할 수 있기를 원한다 원한다면, 당신은 매우 맞춤화 된 파이프 라인을 가지고 있을지도 모릅니다 또는 당신이 최첨단을 원할 수 있습니다

오픈 소스 소프트웨어는 당신이 원하는 시점에 펑크 난다 여러 가지 이유가 있습니다 너는 그걸 원할지도 모른다 그게 전부입니다 우리는 그런 사용자를 좋아합니다

하이브리드 구현도 가능합니다 어떤 것들은 클라우드에 있고 어떤 것들은 온 – 프레미엄입니다 매우 일반적인 사용 사례입니다 우리는 그것을지지하고자합니다 그래서 직접 해보고 그것을 배포 할 방법이 있습니다

정말 중요합니다 따라서 우리와 똑같은 인프라 이전에 관리되고 있던 동일한 종류의 오픈 소스 플랫폼을 자동으로 롤백 할 수 있습니다 자신의 인프라에서 너는 그것을 관리한다 그리고 당신은 똑같은 하드웨어를 갖게됩니다

다른 솔루션에 전력을 공급합니다 그래서 우리는 얻는 것이 정말 쉽습니다 깊은 학습으로 시작되었습니다 깊은 학습은 정말 이륙하고 있습니다 복잡한 데이터에서 통찰력을 찾는 정말 좋은 방법입니다

세트 또한 인증 및 최적화 된 VM 이미지를 제공합니다 GCE에서 일하기 상자에서 꺼내면 Jupyter Notebook을 얻을 수 있습니다 모든 하드웨어에 액세스 할 수 있습니다

크리스가 잠시 후에 얘기 할 것입니다 그리고 가능한 최상의 결과를 얻을 수 있도록 구성되었습니다 따라서 클릭 한 번으로이 항목을 배포 할 수 있습니다 원하는 기계에 접근하여 접근하기 당신이 원하는 모든 액셀레이터에게 즉각적으로 갈 준비가되었습니다

우리는 약속에 대해 언급했다 Google이 오픈 소스 커뮤니티에 미친 영향 Kubeflow는 제가 좋아하는 오픈 소스 프로젝트입니다 지난 가을에 Kubernetes에서 시작되었습니다 특정 ML 작업을위한 마이크로 서비스를 만들 수 있어야한다

분산 형 교육 또는 분산 형 당신이 원하는 곳마다 다른 종류의 모델을 제공하고, 그것이 GCP에 있든 또는 온 – 프레스에 있든 상관 없습니다 따라서이 컨테이너를 배포하는 데 매우 휴대 가능한 방법입니다 당신이 원하는 곳이라면 그런 식으로 배포 할 수 있습니다 일관된 GCP 또는 온 – 리소스 일치에 대해 걱정할 필요가 없습니다

Kubernetes가 그것을 처리하기 때문에 이 모든 것을 다룰 수있는 쿠버 넷 고유의 방식입니다 그리고 다시 CPU, GPU 및 TPU에서 작동하도록 구성되었습니다 GCE에 온 – 프레미스 (On-prem), 내부적으로 가지고있는 모든 것에 액세스 할 수 있습니다 그렇다면 GCE에 배포하면 어떻게 될지 모르겠습니다

GKE 클러스터를 생성하고, 그것은 GCP의 관리 Kuvernnetes 클러스터입니다 그러면 JupyterHub 노트북을 스핀 업할 수 있습니다 TensorFlow 교육 서비스 또는 기타 프레임 워크를 시작하십시오 너는 넣고 싶었고 똑같은 일을했다 당신의 TensorFlow 서빙을 위해

모든 사용자가 공유 저장소에 액세스 할 수 있습니다 GCP에서 Kubernetes에게 자연스럽게 따라서 실제로 할 수있는 좋은 방법입니다 이것은 매우 휴대용 방식으로 그런 다음 전체 컨테이너를 원하는 위치에 배치 할 수 있습니다 그리고 그것은 환상적인 해결책입니다

그래서 지금, 나는 시간을 보낼 것입니다 Chris에게 하드웨어에 대해 이야기 할 것입니다 크리스 클리브 : 감사합니다, 저스틴 테이크 어웨이로 돌아가서, ML에 흥미를 느끼고, Google 클라우드에 ML을 구현할 수 있다고 확신하면서 Google의 인공 지능 (AI) 포커스는 우리를 귀하의 ML에 적합한 파트너로 만들어줍니다 워크로드

정말 빨리 이야기 해 봅시다 단지 이러한 것들을 되풀이하기 위해서입니다 개발자이고 ML을 구현하려는 경우, ML 전문가가 될 필요는 없습니다 API 모델을 사용하십시오 위험을 낮추십시오

사전 훈련 된 ML 모델이 마음에 들지 않는 경우 또는 사용자 정의 무언가를해야합니다 AutoML과 함께 웹 브라우저를 사용하여 사용자 정의 ML 모델을 작성하십시오 놀라운, 슈퍼 간단합니다 그리고 데이터 전문가 또는 기계 학습 과학자 인 경우, 또는 도메인 전문가가 작업 부하에 적합한 도구를 제공합니다 게다가

Google 클라우드에 ML을 성공적으로 구현할 수 있습니다 그러나 컴퓨팅 및 인프라에 대해 간단히 이야기 해 봅시다 ML과의 관계 최근 AI 개선 및 발전의 80 % 더 많은 이용 가능한 컴퓨팅 성능에 기인 한 것입니다 그러나 최근의 TensorFlow 이벤트에서, 설문 조사에 따르면 사람들이 접근 할 수 없다는 것을 인정합니다 ML 연구를 위해 충분히 계산할 수 있습니다

그것은 분명한 문제입니다 이제 수십 년 전으로 돌아 가자 왜냐하면 우리 모두 우리가 서있는 ML에서 일하는이 방에서 거인의 어깨에 신경망과 ML의 작동 방식에 대한 개념, 수십 년이 지났습니다 인간의 두뇌를보고, 어떻게 뉴런이 서로 연결되어 있는지, 그들이 정보를 전달하는 방법 한 뉴런에서 다른 뉴런으로, 그것은 오래된 개념입니다

하지만 최근의 구현입니다 대규모 데이터 센터 및 하드웨어 가속기 우리가이 큰 신경 네트워크를 만들 수있게 해줬습니다 ML의 발전 인프라가 중요합니다 그리고 그것이 중요한 이유는, 당신이 어떤 길로 가든 상관없이 – Google ML 모델을 사용하여 맞춤 모델 만들기 – 그것을 지탱하고있는 인프라입니다

우리 모델에서는 이미 데이터를 가져 왔습니다 훌륭한 알고리즘을 통과 시켰습니다 이 인프라, 대규모, 축구 규모의 현장 데이터 센터 이 모델들을 더 좋고 더 좋게 만드십시오 그리고 우리는 계속 그렇게 할 것입니다 Google Cloud를 사용하면 그 같은 규모로, 너와 그것을 할 수있는 것과 똑같은 힘 알맞게

GCP에 관한 새로운 ML 고객 중 한 명 OpenAI이고 대규모에 대해 이야기합니다 그들은 관리되지 않는 길로 갔다 그들은 도메인 전문가이고, 그들은 AI 사고 리더입니다 그들은 비영리 단체입니다 AI로 혁신하고 개방적이고 안전하게 만들기 위해 노력하고 있습니다

그들은 10 만개 이상의 프로세서를 사용합니다 보강 학습을 할 수 있습니다 수천 개의 GPU를 사용하여 기계 학습을하고 있습니다 혁신을 가능하게하는 것은 규모에 대한 접근입니다 그 (것)들을 위해 그것을 제공하고있는 Google Cloud입니다

하드웨어 가속기는 매우 중요합니다 하드웨어 혁신뿐입니다 CPU가 있으면 Skylake를 사용할 수 있습니다 그러나 ML 작업 부하의 경우 분산 된 교육의 경우 커다란 교육 일자리가 생기면 마비 된 계산 능력이 필요합니다 따라서 우리는 역사적으로 2017 년 2 월 이후로, 우리는 세 개의 NVIDIA GPU 모델 인 K80, P100, V100, 고성능, 패스 스루 PCI입니다

V100을 사용하면 NVLink 상호 연결이 가능하며, ML 워크로드에 아주 좋습니다 우리가 조금 다른 것보다 우리의 경쟁 업체는 맞춤 VM을 제공하는 방식을 사용합니다 CPU 사용량, 메모리 사용량, 기타 GPU 유형, 보유하고있는 GPU 수, 원하는 VM 수, 네트워크 연결 스토리지를 사용하거나 고속 디스크를 원할 경우 특정 작업 부하에 대한 I / O, 서버 내 SSD 연결, 그리고 당신이 원하는 것을 지불하십시오 또는 병목 현상이있는 경우 그 중 하나를 조정하십시오 우리의 다른 경쟁 업체 중 일부는 유연성을 제공하지 않습니다

그래서 돈을 저축하려고합니다 ML 작업이 더 빨리 진행될 것입니다 사실은 이번 주에는 새로운 P4 GPU를 출시했습니다 일주일 후에 나올거야 ML 추론 워크로드에 유용합니다

따라서 우리는 파트너 인 NVIDIA와 계속 협력 할 것입니다 새로운 GPU를 시작하십시오 그래서 우리는 거기서 멈추지 않습니다 AI에 초점을 맞추면 TPU가 생깁니다 우리는 Cloud v2 TPU를 작년에 만들었습니다

이것은 기계 학습을 위해 의도적으로 제작 된 ASIC입니다 그리고 오늘, 우리는 몇 가지 새로운 발표를했습니다 v3이 나오고, 빠르고 저렴한 ML 작업 부하 TPU 포드가 있습니다 TPU 포드는 일련의 TPU입니다

빠른 네트워크로 연결됩니다 다시 한번, 구글의 AI는 인프라를 구축하는 데 중점을두고 있습니다 우리는이 ML 모델을 더 빨리 교육하고 있습니다 우리는 또한 당신에게 그것을 제공하고 있습니다 우리는 당신의 ML을위한 올바른 파트너라고 믿어야합니다

워크로드 저축은 많은 돈입니다 많은 회사에 크고 큰 거래 스탠포드에 예산이있는 조교수가 있습니다 ML에서 몇 가지 연구를 수행합니다

그리고 그는 고정되어 있습니다 – 그가 할 수있는 일은 너무 많아 따라서 관리되지 않는 경로의 윈 – 윈 제품 – 선점 형 VM, 선점 형 GPU 및 TPU가 있습니다 때로는 여분의 용량이 있습니다 또한 교육 및 추론과 같은 ML 배치 워크로드, 우리는 GPU와 TPUs의 70 % 할인을 제공하고 오늘 아침에 발표했습니다 TPUs의 가격을 인하했습니다

그래서 지금,이 연구원은 우리의 여분의 수용력을 사용할 수 있습니다, 약간의 비용 절감, 배치 워크로드 실행 모든 사용 사례에 해당하는 것은 아닙니다 보장되지 않습니다 항상 거기있는 것은 아닙니다 하지만 연구를하고 있다면 필요한 일이나 큰 조직을해라 배치 작업 부하가 한 번씩 적은 비용으로 더 많은 혁신을 할 수있는 좋은 방법입니다

ML에서는 데이터가 정말로 중요합니다 Google은 훌륭한 광섬유 네트워크, 훌륭한 인터넷 서비스를 제공합니다 사이 따라서 데이터를 큰 단위로 이동하는 경우, 우리는 그것을 처리했습니다 실시간으로 들어오는 대규모 데이터 흐름이 다양한 출처 – 우리는 전 세계에 구름 위치를 가지고 있습니다

일부 데이터를 우리에게 발송해야하는 경우, 우리는 당신이 대량으로 출하 할 수있는 가전기구를 가지고 있습니다 그것은 단순한 계산이 아니라 훌륭한 인공 지능 서비스입니다 그것은 네트워크입니다 보안입니다 그것은 거기에 내장 된 모든 것입니다

그래서 우리는 많은 인공 지능 서비스에 대해 이야기했습니다 우리는 당신에게 개요와 소개를주었습니다 우리는 ML이 불가능 발명에 관한 것이 아니라는 것에 대해 이야기했습니다 그것은 재상영과 재발생에 관한 것입니다 너 오늘하고있는 일

현재 14,000 명이 넘는 고객이 GCP에서 ML을하고 있습니다 오픈과 하이브리드에 중점을두고, 및 멀티 클라우드 작업 부하, 하드웨어에 중점을 둠, 우리가 발표하는 우리의 새로운 서비스, 그리고 언급 한 기조 연설, 새로운 AutoML 서비스, 고품질 API – 네가 어떻게하고 싶은지 상관 없다 당신이 할 수 있다는 것에 흥분을 느껴야합니다 당신은 당신이 성공적으로 그것을 할 수 있다고 확신해야합니다 Google은 귀하에게 적합한 파트너입니다

더 배우고, 시작하고, 얻을 수있는 여러 가지 방법이 있습니다 세워짐 내가 특별히 말하고자하는 것은 내가 개인적으로 Kaggle이 사용되었습니다 Kaggle은 ML 대회 서비스 및 커뮤니티입니다 나는 ML을 배울 때, 내가 뭘하는지 몰랐다

그리고 이미지 인식 경쟁이있었습니다 운전자가 도로에주의를 기울이거나 또는 산만 한 느낌 그래서 커뮤니티에 가입하여 ML 도전에 합류했습니다 TensorFlow를 사용하는 방법에 대한 많은 리소스가있었습니다 및 데이터를 사전 처리하는 방법

그리고 Google은 Kaggle을 사용하여 전 세계 사람들을 돕고 있습니다 ML을 배우십시오 그리고 너도 그걸 쓸 수있어 또는 데이터 세트가 많은 조직의 경우, 당신은 경쟁을 시작할 수 있고 세계의 ML 전문가를 가질 수 있습니다 너를 위해 ML을해라

방법에 대한 자료가 많이 있습니다 이러한 서비스에 대해 알아보십시오 Google Cloud 고객이 아닌 경우 무료 크레딧이 제공됩니다 이미 그래서 그 점에 대해 감사 드리고 싶습니다

우리 시간은 거의 다됐다 우리는 몇 가지 질의 응답을 할 것입니다 양쪽에 2 개의 마이크 그리고 몇 가지 질문을하십시오 고마워요

[박수 갈채] [음악 재생]

Introducing AIY: Do-it-yourself Artificial Intelligence (Google I/O ’18)

[음악 재생] 빌 루앙 : 안녕하세요 AIY 입문 세션에 오신 것을 환영합니다

지금까지 I / O에 대해 모두 어떻게 됐습니까? 오늘 모두 좋은 점심 먹었 니? 예 승인 화면에서 볼 수 있듯이이 세션의 이름 AIY 소개 그러나 AI는 무엇입니까? AIY는 Google의 새로운 제품 라인입니다 당신 같은 개발자, 전 세계의 제조사, 인공 지능을위한 응용 프로그램을 만드는 방법 혼자서

그것이 AIY의 이름입니다 오늘 나와 함께 합류했다 개발자 관계에서 내 이름은 Bill Luan입니다 나는 Dushyantsinh Sebastian이 나와 합류했다

우리는 당신에게 현재의 AIY 제품 계열 그래서 우리가 시작하기 전에 동료들을 소개하겠습니다 그럼, Dushyantsinh 재수정 : 감사합니다, 빌 안녕하세요

내 이름은 두샨 in입니다 저는 인도의 Google 개발자 관계 팀의 일원입니다 나는 정말로 당신에게 AIY에 대한 놀라운 데모들을 보여주기 위해 여기에 흥분하고있다 스크립트 하지만 우리가 시작하기 전에 세바스챤을 초대 할거야

AI가 무엇인지에 대한 간단한 개요를 제공합니다 이 대화의 배경을 설정하십시오 SEBASTIAN TRZCINSKI-CLEMENT : 감사합니다, Dushyantsinh 직접 여기에와 주셔서 대단히 감사합니다 YouTube에서 시청할 수도 있습니다

나는이 매우 복잡한 성을 가진 Sebastian입니다 나는 아주 최근에 구글에 합류했다 약 11 년 전 그리고 우리 팀과 함께, 우리가 전 세계에서 무엇을하는지, 특히 신흥 시장에서 우리는 개발자와 신생 기업이 더 잘 구축 할 수 있도록 지원합니다 모바일 및 웹 애플리케이션

오늘 저는 AIY에 관해 당신과 이야기하고 싶습니다 하지만이 전에 DIY에 대해 이야기 해 보겠습니다 너 스스로해라 이게 뭔지 알아? 그것은 UFO가 아닙니다 실제로는 악기예요

아주 좋은 소리를냅니다 그러나 아니, 그것은 선사 시대에 발명되지 않았습니다 그것은 실제로 스위스에서 2000 년에 만들어졌습니다 스위스는 실제로 나라입니다 나는 공식적으로 여기있다

음, 그 때 제가 다른 UFO 중 하나에 있지 않을 때입니다 우리는 비행기를 호출합니다 왜냐하면 저는 제 팀을 방문하기 위해 꽤 많이 여행하기 때문입니다 이게 뭔지 알아? DIY 문화의 창입니다 인류의 역사에 대해 아주 간단히 설명하겠습니다

DIY를위한 식욕 그리고 책 "사피엔스 (Sapiens) 인류의 간략한 역사, "당신은 내가 무슨 말하는지 알지 우리의 인간 조상들은 이미 도구를 만들고 있었고, 아마 너도 알다시피 무기들, 도구들 돌과 나무를 사용합니다 이제 우리가 몇 세대의 인간을 건너 뛰면, 우리는 여전히 나무를 사용하여 물건을 만듭니다 이것은 나의 형제 중 하나이다, Mattias, 그리고 여동생, 리디아, 약 30 년 전 너랑 네 형제들, 똑같은 일을 했어 물건이나 뭐든지 다뤄 봤어

당신 손을 얹을 수 있습니다 이제 내가 빨리 전화를 걸어 보자 전자 시대 90 년대에 데스크톱 컴퓨터가 어떻게 나는 노트북에 대해서도 말하지 않고있다 데스크톱은 너무 비쌌습니까? 너 중에 누가 손을 보여줄지, 보러

예비 부품이있는 컴퓨터를 누가 만들었습니까? 네 나도 그랬어 네가 꽤 많이, 나는 유일한 사람이 아니야 누가 이것을 위해 너무 오래 됐어 이 애니메이션 이미지에서 볼 수 있습니다

오버 헤드 프로젝터와 LCD 분해 방법 저렴한 수제 비디오 프로젝터를 만드는 스크린 그런데 분명히 우리 엄마는 짜증이났다 모든 전자 장치가 거실의 모든 곳에 있기 때문입니다 그래서 그녀가 외쳤다 신선한 공기가 필요해

좋아 그래서 나는 밖에 나갔다 쓰레기 봉지 재사용 태양열 풍선을 만들 쓰레기 봉투 1 달러 그것은 나를 거의 들어 올릴 수 있습니다 하지만 언젠가는 거기에 갈거야

그러나 전자 제품의 매력은 너무 강했다 그래서 형제들과 나는 내 형제들과 내 형제 중 한 명으로 돌아 왔습니다 다른 하나, 플로리안 – 3D 프린터, 수제 3D 프린터로 시작되었습니다 이것은 내 다른 형제, 오른쪽에있는 형제입니다 왼쪽은 사실 박물관에있는 사진입니다

제가 말했듯이, DIY는 매우 초기부터 우리의 DNA에 있습니다 Google의 DNA에도 있습니다 4 년 전, Google 엔지니어가 파리 사무소 – 나는 파리를 언급했다 왜냐하면 나는 사실 프랑스 사람이야 이 엔지니어는 VR 플랫폼을 표시하기 위해 I / O에 왔습니다

그는 20 %의 혁신 시간 동안 골판지를 사용하여 건축했습니다 그로부터 2 년 전, Google에서 Daydream VR 플랫폼이라고 부르는 것입니다 여기 재미있는 것이 있습니다 제작자 문화는 모두 하드웨어에 관한 것입니다 한 편에는 물리적 인 대상을, 다른 한편으로는, 소프트웨어 -이 DIY 문화의 조합 해커 문화와 2006 년 이래로 Maker Faire에 대해 들어 보셨을 것입니다

주변에 제작자 공간이있을 수 있습니다 당신이 살고있는 당신의 도시에서는 아무도 없습니다, 그렇다면 왜 시작하지 않으시겠습니까? 이 메이커 공간 중 하나? 이 메이커 문화에 대한 좋은 점 당신이 손으로하는 것을 통해 배우는 것입니다 너는 실수를 저지를거야 그래서? 상관 없어요 그것은 배우고, 새로운 것을 시도하는 아주 좋은 방법입니다

서로 배우고 새로운 응용 프로그램을 찾습니다 그 기술로 만들 수 있습니다 당신의 배경은 중요하지 않습니다 사실 믹스 앤 매치가 가능할 때 더 좋습니다 기술의 새로운 응용 프로그램을 찾는 다른 도메인

이제 무엇이 있는지 살펴 보겠습니다 지난 몇 년 동안 일어났다 이제 라스베리 파이와 같은 마이크로 컨트롤러가 생겼습니다 구름이 더 싸게되었습니다 리튬 배터리는 더 저렴 해졌습니다

당신은 리튬 배터리, 그 비용, 지난 8 년간 80 %가 감소 했습니까? 그리고 인공 지능, 인공 지능, 특히 어제부터, 그리고 개념들 기계 학습, 심 신경 네트워크와 유사합니다 복잡하게 들리는군요, 그렇죠? 그럴 필요는 없습니다 그럴 필요는 없습니다 그리고 이것이 AIY와 함께하는 이유입니다 우리가 작년에 소개 한 AI, 인공 지능, 너는 재미있게 놀 수있다

이 메이커 문화의 아이디어 무엇보다 먼저, 이 경우에는 인공 지능을 사용하여 재미를 느낄 수 있습니다 우리는 AI를 당신의 손에 문자 그대로 넣고 싶습니다 실제 문제를 풀 수 있습니다 우리의 AIY 키트는 오픈 소스입니다 그들은 하드웨어와 소프트웨어를 결합합니다

AI는 장치 자체에 직접 통합됩니다 앞서 언급 한 본질은, 쉽게 사용할 수있는 구성 요소를 사용하여 저렴한 비용으로 유지하는 것입니다 행성의 거의 모든 곳에서 찾을 수 있습니다 그리고이 키트는 조립이 매우 쉽습니다 Dushyantsinh, 얼마나 오래 걸릴까요? 이 키트 중 하나를 조립 하시겠습니까? 재서야 : 15 분에서 30 분

세바스챤 TRZCINSKI-CLEMENT : 15, 30 분 좋아요 한 시간은 엄마가 나는 매우 어색하다고 말하려고합니다 고마워 엄마 그녀가 지켜보고있는 것을 안다

따라서이 키트를 조립하는 데 한 시간 이상 걸리지 않도록하십시오 Dushyantsinh와 빌 바로 직후에, 단 몇 분만에, 이 키트 중 일부를 보여줄 것입니다 당신이 그들과 함께 할 수있는 것 – 보이스 킷과 비전 전부 그러나 우리와 함께있어 라 다가오는 몇 주와 앞으로 몇 달 안에, 그 공간에서 더 많은 발표가있을 것입니다

이제 한번 살펴보고 이것으로 마무리하겠습니다 당신 중 일부는 이미 만들었습니다 이 예에서는 몇 초 만에 여러분을 보여 드리겠습니다 프로그래밍 경험이없는 16 세 다음 유스 케이스를 제시했다 약 20 초 동안 비디오를 재생 해 봅시다

LAWRENCE : New York Yankees 야구 모자를 구입하십시오 이제 실제로 무슨 일이 벌어지고 있습니까? 음성 키트 : 완료 로렌스 : 그래서 그녀는 방금 말 했잖아, 그렇지? 그래 LAWRENCE : OK 그래서 실제로 무슨 일이 일어 났습니까? 그 일이 끝났을 때, 그것은 eBay에서 찾은 후 내 이메일에 대한 링크를 보냈습니다

따라서 온라인 결과를 찾고, 이메일에 링크를 보내고, 나는 그 사람들을 받게 될 것입니다 클릭하고 구입하십시오 세바스챤 TRZCINSKI-CLEMENT : 그렇다면 로렌스와 고등학교 아이와 여기서 일어났어 제품을 사러 갔다 처음에 그렇게 들었는지는 모르겠다

"나는 야구 모자를 사고있다" 그리고 그것은 결과를 위해 eBay에서 검색하고 있었고, 장치가 완료된 직후에 이메일로 전송되었습니다 그럼 코드를 살펴 보겠습니다 그것은 단지 여러분이 처음에 들었 으면, "나는 야구 모자를 사고있다 그리고 이베이에서 결과를 찾고 있었고, 바로 다음에 [오디오 출력]에 이메일이 전송되었습니다

장치가 완료되었습니다 그럼 코드를 통해 [오디오 아웃]을 가져 오도록하겠습니다 처음에 들었 으면 그냥 [오디오 출력]입니다 나는 야구를 위해 쇼핑 중입니다 [AUDIO OUT] 우리는 결과에 대해 eBay에서 검색하고 있습니다 [오디오 출력] [AUDIO OUT] 직후에 이메일을 통해 이메일을 받았습니다 처음에 들었 으면 그냥 [오디오 출력]입니다

나는 야구 모자를 사러 간다 [AUDIO OUT] 코드를 통해 그냥 들었 으면 [오디오 아웃]입니다 처음에는 나는 야구 모자를 사러 간다 [AUDIO OUT] 동영상에서 모든 결과가 기억납니다 이메일을 통해 전송됩니다

여기에 코드가 있습니다 우리는 각 결과를 처음부터 끝까지 살펴볼 것입니다 코드의 라인을 그곳에 올려 놓고 이것을 이메일로 포맷하십시오 경험이없는 사람이라도 인정할 수 있습니다 프로그래머, from, to, subject 등이 있습니다

그게 전부 야 아무것도 더 우리가 할 마지막 일은 바로 연결하는 것입니다 서버, 전자 메일 서버에 보내고 전자 메일을 보내면됩니다 장치가 "완료"라고 말하도록하십시오

그게 전부 야 더 이상 아무것도 없습니다 말 그대로 복사하여 붙여 넣을 수 있습니다 효과가있을 것입니다 이제 AIY로 일을 할 차례입니다

그리고 당신이 충분히 영감을받지 못했다면, 지금 Dushyantsinh를 무대에 올 테니 음성 키트로 데모를 할 수 있습니다 귀 기울여 주셔서 대단히 감사합니다 그리고 Dushyantsinh를 무대에 다시 맞이하십시오 JUSA : 더 감사합니다, Sebastian

내 이름은 Dushyantsinh이고 개발자 관계의 일부입니다 Google 팀 그리고 모두와 마찬가지로, 우리 모두는 가능성에 흥분하고 있습니다 인공 지능이 우리 앞에서 옳은가? 이것은 더 의미 있고 더 영향력있게됩니다 우리 모두가 접근 할 수있을 때 이 멋진 플랫폼 Google은 업무와 발전을 공유했습니다

인공 지능 분야 제품을 구축하고 연구 논문을 공유하며, AIY 키트를 사용하면 더 많은 사람들에게 더 장난기있는 방식으로 데려가, 그러나 그것은 당신이 풀 수있을 정도로 강하다 정말 좋은 문제들 그럼 우리가 그 중 일부를 해결할 수있는 방법을 보도록하겠습니다 그리고 우리가이 키트를 함께 생각할 때, 너의 생각, 무슨 말이, 무엇 이걸 사람들 앞에 놓는 게 옳은가? 그리고 물론, 목소리도 그 중 하나였습니다 그것은 아주 분명했습니다

우리 모두는 말하기를 좋아합니다 우리가 놀 수있는 힘이 있다고 상상해보십시오 목소리로 얼마나 즐거웠 을까요 기조 연설에서 언급 한 [INAUDIBLE] 어제 WaveNet에 대해, 당신이 다른 목소리를 어떻게 만들 수 있는지 그래서이 데모에서 나는 단지 이야기 할 것입니다

AIY 키트의 기능에 대해 클라우드 음성 API 및 Google Assistant API 사용 그러나 물론 이것보다 훨씬 많은 것이 있습니다 보이스 킷은 작년 중반에 출시되었습니다 내가 틀렸어도 많은 관심을 받았어 보이스 킷에는 기본적으로 몇 가지 소프트웨어가 결합되어 있습니다 일부 하드웨어가 있습니다

그것은 라스베리 파이 재단과 함께 판매되었습니다 우리는 기존 제조업체로부터 얻을 수있는 피드백을 확인합니다 지역 사회와 우리의 제안을 개선하려고합니다 우리는 음성 키트의 두 번째 버전을 출시했습니다 언젠가 1 월에 모든 피드백을 통합 할 것입니다

원 박스 구성 요소 키트로 모든 것을 만들 수 있습니다 그래서 그것이 당신이 오늘 얻는 것입니다 AI 웹 사이트에 가서 음성 키트를 살펴 본다면, 이것은 당신이 아마 거기에서 발견 할 것입니다 그러나 키트에는 무엇이 들어 있습니까? 하드웨어 관점에서 보면 Raspberry Pi Zero, 기본적으로 음성 보닛이 있습니다 당신을 위해 오디오 프로세싱을 수행하는 하드웨어 조각, 보이스 보닛에는 다른 구성 요소가 있습니다

마이크가 있고, 코덱, 마이크로 컨트롤러, 일반 다목적 입력 출력 및 아케이드 버튼 기본적으로 시각적 인 표시를 제공합니다 어떤 시점에서든 보이스 킷을 사용하면됩니다 그리고 소프트웨어 관점에서 볼 때, 기본적으로 Raspbian Linux에서 실행됩니다 Google Assistant API를 사용하고 Cloud Speech API를 사용합니다 그러나 물론, 당신은 그것으로 많은 것을 할 수 있습니다

이것은 단지 보이스 킷의 표면을 긁적입니다 그럼 어떻게 시작할 수 있니? 매우 간단합니다 3 단계 프로세스로 생각하십시오 1 단계는 키트 조립에 관한 것으로, 2 단계에서 기기를 설정하는 중입니다 3 단계는 모든 것을 설정 했으므로 당신은 스스로 해결할 수있는 몇 가지 솔루션을 만들 수 있습니다

키트를 여는 경우 이것이 보이는 모양입니다 우선 모든 요소가 올바른지 확인하십시오 골판지, 모든 다른 하드 우드 웹 사이트에 언급되어 있습니다 모든 구성 요소가 준비되어 있는지 확인하십시오 함께 조립하기 전에 확인한 후에는 다음 단계로해야합니다

엔진을 만드는 것입니다 자동차를 만드는 것으로 생각하십시오 당신은 엔진을 만들고있어 라즈베리 파이를 넣을거야 음성 보닛을 함께 사용하십시오 일단 당신이 엔진을 조립하면, 이제는 섀시를 만들고 있습니다

그래서 그것은 당신의 차를위한 구조의 종류입니다, 또는 보이스 킷을위한 구조 그래서 당신은 기본적으로 골판지를 가져 가야합니다 그것은 스피커의 구조를 갖게됩니다 골판지를 만든 다음에는 엔진을 넣으십시오 당신은 그 안에 라스베리 파이와 보닛 보닛을 넣습니다

그게 전부 야 그것은 아주 쉽고, 아주 재미 있습니다 나를 위해, 처음 시도했을 때 뭔가가 걸렸다 약 15 ~ 20 분 하지만 너희들은 많이, 많이 있다고 확신한다

당신보다 더 빨리 나아갈 수 있습니다 여기에서 중요한 것은 빨리하지 말고, 그렇게하십시오 그것에서 좋은 재미 방법으로 그래, 그래 그게 전부 야

음성 키트를 조립했습니다 2 단계는 기본적으로 기기를 설정합니다 이 시점에서, 당신이 원하는 것 할 일은 이제 내 장치가있다 또는 내 보이스 킷은 어느 정도 좋은 모양과 형태로 존재합니다 내가 그것에 목소리를 내 보자

모든 것이 잘 작동하는지 보도록하겠습니다 그래서 이미 음성 키트가 있습니다 여기, 그리고 내 보이스 킷으로 돌아갈거야 모든 것이 잘 작동하는지 확인하십시오 따라서 시작하기 전에 모든 것을 갖춰야합니다

너를 위해 달리기 따라서 네트워크에 연결되어 있다고 가정 해 보겠습니다 이것은 유선 네트워크이거나 무선 네트워크 일 수 있습니다 또는 휴대 전화에서 테 더링하는 경우, 본질적으로 어떤 종류의 연결이있다 보이스 킷을 인터넷에 연결해야하기 때문입니다

Google Assistant 및 Speech를 사용하고 있습니다 인식을위한 API 온라인 상태인지 보겠습니다 좋은 나는 인터넷 관점에서 모두 설정 한 것 같습니다

내 오디오가 잘 작동하는지 확인해 보겠습니다 키트의 오디오가 잘 작동하는지 확인하십시오 VOICE KIT : 프론트, 센터 재스민 : 자존심 내 목소리가 들리는 지 보자

테스트 하나 둘 셋 VOICE KIT : 테스트 하나 둘 셋 재스민 : 자존심이 좋아 보인다

이제 거의 다 됐습니다 좋은 점은 보이스 킷에는 미리 만들어진 데모도 포함되어 있습니다 그것들이 너보다 먼저 잘 보이는지 보는 것도 좋다 자신을 만들기 시작하십시오 Pi 디렉토리로 가서 Pi10 음성을 보면 여기 예제가 있습니다

그리고이 라이브러리 데모를 사용해 보겠습니다 안녕, 구글, 지금 뭐야? VOICE KIT : 1:50입니다 재수정 : 감사합니다 그래서 당신은 많은 것들을 시도 할 수 있습니다 내가 뭘하고 있었는지는 내가 방금 테스트 중이 었어

일이 잘 작동하면 지금 당연히 당신은이 시점에서 물어볼 수 있습니다 다른 질문들 이제 상황이 괜찮은 것 같습니다 내가 무언가를 만들 수 있는지 아닌지를 알려주지

다시 발표하겠습니다 슬라이드로 돌아갈 수 있을까요? 네 따라서 기기가 정상적으로 작동하는지 항상 확인하는 것이 좋습니다 혼자서 건물을 짓기 전에 저는 전형적인 쇼핑 경험을 쌓았습니다

잘하면 잘 작동하지만 잘보아야합니다 세트가 실제로 표까지 아니었기 때문에, 한 번만 더 해보 죠 데모로 전환 할 수 있습니까? Sebastian이 보여 주었던 것처럼, 그는 코드를 보여주고있었습니다 음성 조종사에게 명령을 내리는 것이 대부분이었습니다 말하라

뭔가 사러 가라 그리고 나서 그것은 텍스트를 식별하려고 시도하고있었습니다 API 중 하나를 호출하고있었습니다 내가 믿고 이베이에서 왔고 근본적으로 결과의 일부를 먹이려고 노력한다 이메일로 보내십시오

비슷한 행동을 모방하려고했습니다 데모 코드가 나와 함께 있는지 봅시다 그래서 지금이 시점에서 제가하고있는 일은, 그냥 쇼핑을하러 갈거야 어머니의 날이 다가오고 있기 때문에 그리고 나는 그 시간에 맞추지 않을 것이고, 나는 원한다 우리 엄마 한테 무언가를 보냈어

그리고 나는 생각하고 있었다, 무엇이 재미있을 수 있었느냐? 외관상으로는 smartwatch는 큰 것이다, 그래서 나는 생각했다, 좋아, 아마 내가 그녀에게 smartwatch를 줘 보자 보이스 킷을 사용하여 스마트 워치를 찾을 수 있는지 보겠습니다 안녕, 구글 smartwatch를 구매하십시오 시원한

음성 키트 : 완료 DUSHYANTSINH JADEJA : 그래서 당신이 한 일을 보면, 그것은 기본적으로 내 목소리 또는 내 명령을 인식, 특정 서비스와 연결되어, 나와 사용할 수있는 스마트 워치를 표시했습니다 구매에 그리고 지금,이 시점에서, 저는이 결과를 얻을 수 있습니다 세바스찬이 언급 한 것처럼 이메일을 보냅니다

또는 스마트 디스플레이 장치가있는 경우, 나는 기본적으로 그곳에 게시 할 수 있고, 좋은 시각적 인 목록을 줄 수 있으며, 이것들과 같은 것들이 있습니다 또는 나는 조금 더 대화에 참여할 수있다 그것으로 슬라이드로 다시 이동할 수 있습니까? 하지만 할 수있는 일이 많습니다 맞습니까? 내가 여기서 강조하려고했던 것 장치로 가능한 많은 것들이 있다는 것입니다

당신이 그걸 가지고 놀 수있는 곳 또한 소프트웨어를 하나의 소프트웨어로 볼 수는 없습니다 그것의 측면,하지만 당신은 또한 실험 할 수있는 몇 가지 하드웨어에있는 것들을 그래서 우리는 오래된 장난감을 가지고있는 사람들을 보았습니다 보이스 키트 (Voice Kits) 또는 다른 AIY 키트 시체를 소생 시키거나 그 장난감에 생명을 불어 넣으십시오 우리는 사람들이 보이스 킷용 선반을 사용자 정의하는 것을 보았습니다

기기 리믹스를 한 사람이 있습니다 Roomba 진공 청소기에 음성과 시각을 제공합니다 그럼 당신은 그들에게 말할 수 있습니다, 좋아, 하지마 집의 이쪽으로 가면서 다른쪽으로 가라 집 섹션의

또는 완전한 사용자 지정 음성 액션을 만들 수도 있습니다 그래서 많은 것들이 가능합니다 만약 당신이 그것에 대해 더 알고 싶다면, Instagram 또는 Twitter에서 우리를 팔로우 할 수 있습니다 또는 AIY 프로젝트로 Reddit에 대한 토론을 따르십시오 그걸로 빌에게 무엇이 더 필요한지 더 많이 알리도록하겠습니다

Vision Kit에서 발생합니다 빌 루앙 : 고마워 Dushyantsinh, 감사합니다 [INAUDIBLE] OK? 괜찮아 AIY 제품의 두 번째 제품 라인을 계속 사용하겠습니다

가족이 볼 수 있듯이 비전 키트입니다 비전 키트는 비교적 새로운 제품으로, 작년 말에 방금 발표되었습니다 우리는 새 버전 업데이트를했습니다 올해 1 분기 그래서 최신 버전은 1

1입니다 여러분이 보시다시피, 작년 12 월에 출시되었습니다 그것은 최신 라즈베리 파이 제로와 WH, 헤더가 보드에 납땜됩니다 따라서 초기 버전에서는 문제가 없습니다 핀을 직접 솔더링해야합니다

훨씬 쉽습니다 그것은 라스베리 파이 카메라 버전 2, Google에서 만든 Vision Bonnet 회로 기판, 그리고 그것은 모든 소프트웨어, 하드웨어, 인공물 인텔리전스에서 Google이이를 제품에 넣었습니다 비전 [INAUDIBLE]에 있습니다 이 특정 제품의 가장 독특한 것들, 인터넷에 연결할 필요가 없습니다 비전 인식 소프트웨어로 작업 할 수 있습니다

혼자서 그 상자에 따라서 시작하기 전에 자료 목록을 살펴 보겠습니다 Dushyantsinh가 보이스 킷 (Voice Kit)을 위해했던 것 – 비슷한 것 앞서 언급 한 것처럼 하드웨어 측면에서 볼 때, 그것은 최신 라즈베리 파이 제로 보드와 카메라를 가지고 있으며, Google이 Vision Bonnet을 제작했습니다 이 Vision Bonnet 회로 보드에는 Intel 비전이 포함되어 있습니다

인식 프로세서는 모든 컴퓨팅 기능을 갖추고 있습니다 비전 인식을 도와주는 힘 그 외에도 카메라 지원 기능이 있습니다 Raspberry Pi 케이블에 연결되어 있습니다 커넥터

또한 범용 입력 출력, 소위 GPIO 커넥터를 사용하면 나는 더 많은 일을 할 것이고, 나는 곧 다룰 것이다 또한 암호화 칩이 내장되어 있습니다 신호를 암호화하여 증권을 추가 할 수 있도록 도와줍니다 응용 프로그램의 측면에서 그런 다음 소프트웨어 측면에서 – 아, 버튼도 있습니다

골 판지 형태로 장치를 접을 수 있습니다 소프트웨어 측면에서 운영 체제는 동일합니다 그것은 Linux Raspbian 운영 체제에서 실행되며, TensorFlow, 이른바 Inception이 포함됩니다 그리고 사운드 장치 인 MobileNet 소프트웨어, 이 장치로 작업 할 인공 지능 모델을 만들 수 있습니다 AI에서 응용 프로그램을 수행 할 수 있습니다

그것은 얼굴 인식을위한 소프트웨어가 내장되어 있습니다 뿐만 아니라 일반 물체 인식 그래서이 모든 소프트웨어가 장치에있어 사용할 준비가되었습니다 그리고 그 구성 요소의 관점에서, 좀 더 자세히 설명해 드리겠습니다 비교적 새로운 제품입니다

하단의 하드웨어 수준에서 머리가 납땜 된 라스베리 파이 제로입니다 내가 말했듯이, 라스베리 파이 제로는 Wi-Fi가 내장되어 있습니다 및 블루투스 지원 인터넷에 연결할 수 있습니다 인터넷에 연결된 Wi-Fi가있는 케이블없이 원하는 경우 GPIO 연결을 통해 직접 연결할 수 있습니다

플렉스 케이블을 사용하여 Google Vision Bonnet 회로 보드에 연결합니다 추가 플렉스 케이블과 함께 그 회로 기판, 파이 카메라뿐만 아니라 추가 액세서리에 연결, LED, 푸시 버튼, 버저 등이 있습니다 기기에 부저가 있습니다 귀하의 신청서가 필요한만큼, 당신은 소리를 낼 수 있습니다 그런 다음 소프트웨어 측면에서 동일한 Linux Raspbian에서 실행됩니다

운영 체제 및 프로그램 파이썬 코드로 모두 실행되므로 파이썬 인터프리터가있다 그 위에 그리고 Google의 소프트웨어는 당신이 원한다면 3 개의 다른 모듈을 포함합니다 분할 프로세스의 측면에서 첫 번째는 TensorFlow 모듈입니다

비전 시작입니다 둘째, 안면 감지 기능이 있습니다 소프트웨어, 그리고 셋째, 그것은 객체 감지 소프트웨어를 가지고 있습니다 따라서 이러한 소프트웨어가 탑재되어 있고 이러한 모든 하드웨어를 사용하면, API 과정을 통해 애플리케이션 작성 이러한 구성 요소와의 인터페이스 이것이 모든 것을 하나로 모으는 방법입니다 그런 다음 같은 과정을 거치도록하겠습니다

Dushyantsinh는 보이스 킷의 관점에서 언급했습니다 그래서 첫째로, 당신은 그것을 조립합니다 조립 측면에서 매우 비슷합니다 상자를 구입했는데,이 부분, 판지 등이 있습니다 화면에서 볼 수 있듯이 프로세스 측면에서 볼 때, 건물은 비교적 쉽습니다

기본적으로 라스베리 파이를 비전과 연결합니다 보닛 – 오렌지색 케이블을 가진 케이블 – 그것들을 서로 연결하고 함께 쌓은 다음 골판지 상자를 접고이 모듈을 가운데에 삽입하십시오 거의 당신이 자동차에 엔진을 넣은 것처럼, Dushyantsinh가 언급했듯이 – 버튼을 연결하면됩니다 처음 40 분 동안 이걸 만들었습니다 두 번째로 그것을 만들었지 만 20 분 밖에 걸리지 않았습니다

그래서 매우 간단합니다 사실, 나 자신을위한 플러그가있다 나는 그것을 YouTube에 조립하는 방법에 대한 비디오 튜토리얼을 만들었습니다 따라서 지침을 읽지 않으려는 당신의 경우, 당신은 비디오를 볼 수 있습니다 그러나 그것은 매우 쉽고 간단합니다

승인 괜찮아 축하합니다 한 시간도 채 안되면 단숨에 빌드 할 수 있습니다 그런 장치

확인의 측면에서 설정, 이것은 매우 간단합니다 내가 말했듯이 이것은 반드시 인터넷에 연결해야합니다 따라서 연결은 전원 공급 장치 만 있으면됩니다 전원 공급 장치가 연결되어 준비가되었습니다 얼굴 인식 소프트웨어 때문에 우리는 당신이 힘을 얻은 후 장치에 내장했습니다

그것은 자동으로 얼굴 탐지 소프트웨어를 실행합니다 그래서 지금, 책상 위에, 나는이 Vision Bonnet을 가지고있다 나랑 그리고 당신이 볼 수 있듯이, 최고의 LED가 푸른 빛 – 버튼이 켜졌다 이제 내가 이걸 내 얼굴을 가리키면 볼 수 있듯이, 카메라를 나타내는 푸른 빛이 내 얼굴을 잡아 먹고 있습니다

웃는 얼굴, 행복한 얼굴로 카메라에 보여 주면, LCD의 밝은 색이 노란색으로 바뀝니다 그리고 내가 얼굴을 찡그린다면, 그것은 푸른 색으로 되돌아 갈 것입니다 그래서 이것을 설명하겠습니다 다들 볼 수 있니? 권리? 색상이 바뀝니다 자, 이것이 어떤 종류의 마술이 아니라는 말입니다

일할 때 인공 지능입니다 무슨 일이 있었는지, 그것은 AI와 함께 내부 소프트웨어입니다 얼굴 인식이있는 TensorFlow 모델 – 사실, 나는 1 분 안에 그것에 갈거야 얼굴 인식 소프트웨어를 만들 수 있습니다 따라서 설정이별로 없습니다

전원을 켜고 전원을 연결 한 다음, 얼굴 인식도 할 수 있습니다 이 데모를 Joy Detection이라고합니다 이는 기기와 함께 제공되는 제품의 일부입니다 괜찮아 그래서 조립이 매우 쉽고, 셋업이 매우 쉽습니다

자신 만의 솔루션을 만드는 방법 당신이 할 수있는 많은 소프트웨어가 있습니다 그리고 또 다른 데모를 해보 죠 화면을 다른 장치의 출력으로 전환하십시오 지금 볼 수 있듯이 나는 Raspbian 소프트웨어를 실행하고 있습니다

운영 체제가 있고 소프트웨어를 보여주는 창이 있습니다 간단한 데모를 시작하여 객체 분류입니다 그래서 데모부터 시작하겠습니다 오른쪽에있는 화면에서 볼 수 있습니다 옆에 카메라가 있고 비디오 이미지가 캡처됩니다

카메라로 그리고 테이블 위에 나는 사과와 바나나를 가지고 있는데, 코카콜라도 할 수 있습니다 이것은 내가 조합 한 임의의 객체입니다 이제 보시다시피 화면 왼쪽에 시작 아웃 출력 스트림이 있습니다 물체 분류에 따라 화면에 둡니다

우리가 장치에 넣은 소프트웨어 이제, 나는 그 모든 것을 잠시 후에 설명 할 것입니다 먼저 데모를 해 보겠습니다 이 점을 바나나에게 알려주지 그리고 당신은 스크린의 왼편에서보아야합니다

이 물건을 발견했다고 말할 겁니다 바나나, 바래요 이제 사과를 가리키면 사실 사과인지 알게 될거야 할머니 스미스라고해야합니다 실제로 사과의 종류를 인식합니다

그리고 이미 이전에 시도 했었는데, 나는이 코카콜라가 할 수 있음을 지적했다 나는 그것이 무엇을 말할 지 모르지만, 더 일찍 나에게 말하고 있었다 그것은 펀치 백이라고 생각합니다 글쎄, 펀치 백은 붉은 색이야 이렇게 생겼어

그러니 그 신청서를 중단하고 이 창은 조금 더 커 그리고 왼쪽에서 볼 수 있듯이, 첫 번째 열 번호, 그것은 물체 인식입니다 그것은 그것을 인식합니다 그것은 그것이 바나나라고 말합니다 그 이후의 숫자는 소위 신뢰 점수입니다

AI가 이것이 바나나라고 생각하는 것에 대해 자신감을 갖거나 유사하게, 할머니 스미스 사과 인 사과에게 이 신뢰 수준은 인식 부분을 알려줍니다 진정으로 그것이 발견하는 대상이라고 생각합니다 이 숫자들, 소프트웨어로부터의 이러한 종류의 피드백, 당신은 많은 응용 프로그램을 만드는 데 사용할 수 있습니다 슬라이드로 다시 전환하십시오

당신이 볼 수 있듯이 화면의이 이미지는 아주 비슷 하죠? 그것은 신뢰 점수와 함께 물체를 인식했다 이 번호를 사용하여 응용 프로그램을 디자인 할 수 있습니다 비전 키트로 정확히 무엇을 할 수 있습니까? 음, 제가 말했듯이, 당신은 이미 그것을 볼 수 있습니다 객체 탐지를 수행합니다 그리고 그것은 얼굴 탐지를 가지고 있습니다 – 이것들에 내장 된 소프트웨어와 API 과정을 통해 당신은 이것을 활용할 수 있습니다

자동으로 사진, 비디오 및 사진을 찍을 수 있습니다 응용 프로그램에 출력을 보냅니다 이미지 분류가 있습니다 보았다, 사과와 바나나에게 말할 수있게, 그리고 다른 것들을 한꺼번에 그러나 조이 디텍트 (Joy Detect)가 입증 한 것처럼 가장 중요한 것은, 당신은 자신의 인공 지능 기계 학습 소프트웨어를 실행할 수 있습니다 이 장치에서 사용자 정의 된 TensorFlow를 작성하여 모델

이제 여러분 중 일부는 생각할 수도 있습니다 어떻게해야합니까? TensorFlow 모델을 구축한다는 측면에서 다소 혼란 스럽습니다 그것은 매우 강력한 것입니다 어떻게 그걸합니까? 괜찮아 그래서 당신에게 과정을 소개하겠습니다

맞춤형 모델은 어떻게 처리합니까? 그래서 우선, 첫 번째 숫자 – TensorFlow로 구축 한 모든 기계 학습 모델, 당신은 훈련 할 모델을 만들고 있습니다 따라서 자신의 모델을 지정하고 교육하는 것이 첫 번째 단계입니다 두 번째 모델은 다른 TensorFlow 모델과 마찬가지로, 당신은 최종 결과를 얻는다, 당신은 소위 수출 모델을한다 소위 고정 그래프로 어떤 모델이든, 고정 된 그래프를 생성 할 수 있습니다 그러나 고정 그래프는 자체 포맷을 가지고 있습니다

이 형식은 Vision Bonnet 하드웨어에서는 이해할 수 없습니다 그렇게 여하튼, 우리는 경기를해야합니다 일치가 다음 단계 일 때, 소위 컴파일러입니다 Google은 이른바 보넷 모델 컴파일러를 제공합니다 고정 그래프 바이너리 코드 가져 오기 컴파일 된 코드를 통해 컴파일을 실행하십시오

자신 만의 맞춤형 컴퓨터 그래프를 생성합니다 따라서 사실상 다른 것은 최종 결과에서, 당신은이 세 단계를 거치고 있습니다 바이너리 파일이 있습니다 이 파일은 귀하의 기계 학습 모델을 정의합니다 그런 다음 하드웨어 측면에서 물론 우리는 Raspberry Pi, 비전 보닛이 있습니다

Raspberry Pi에는 Python 프로그램이 있습니다 API 과정을 사용하고,이 컴퓨터 그래프를 보내고, 원한다면 Vision Bonnet에 다음 단계는 코드를 작성하는 것입니다 자습서 및 예제 모델을 살펴볼 수 있습니다 모델 함수의 코드, 기본적으로 이 컴퓨터 그래프를 Vision Bonnet으로 보냅니다

이 특별한 경우에, 컴퓨터 그래프 비전 보닛이 일치합니다 그들은 무슨 일이 일어나고 있는지 이해합니다 그리고 나서 카메라를 타고 가다 모든 입력 이러한 입력은 2 진수로오고 있습니다

그러나이 컴퓨터 그래프 때문에, 우리는 기계 학습에 관계없이 이러한 입력을 조정합니다 기본적으로 묶이는 텐서 다차원 어레이 이제 다음 단계는 일치해야합니다 이 텐서, 배열 묶음, 당신의 모델로 이미지 이것이 바로 우리가이 컴퓨팅이라고 부르는 것입니다 기본적으로 단계는 프로그램을 작성하는 것입니다

당신은이 Vision Bonnet 하드웨어를 가지고 있습니다 계산을 수행하고 신호를 보냅니다 출력합니다 여기 코드가 있습니다 당신이 볼 수 있듯이 어떻게 당신의 얼굴을 정의합니까? 얼굴 개체는 경계 상자, 얼굴 점수 및 기쁨 점수

당신은 그와 같은 인수 코드를 작성합니다 이것이 당신의 구조입니다 당신은 그것을 구조로 보내고, 나의 모델에서는, 4 명이 있으려면이게 필요해 그리고이 4 가지 숫자는 제 기계 학습 모델과 일치합니다 마지막으로 애플리케이션 코드에서 방금 말한대로,이 텐서에서 결과를 얻도록하겠습니다

여부를 기쁨 점수, 얼굴 점수, 뭐든간에, 당신은 그것을 최종 결과로 가져갑니다 그리고 당신은 결정을 내리고 말할 수 있습니다, 점수는 어떤 숫자보다 큰 숫자를 기반으로합니다 내 색 빛을 바꿔라 그래서 이것은 당신이 말한 것과 정확히 똑같습니다 자신의 기계 학습 모델 사용하기 비전 키트와 함께

괜찮아 그래서 프로젝트를 확장하는 것에 대해 이야기 해 봅시다 우리는 소프트웨어에 대해 이야기했지만 하드웨어는 어떻습니까? AIY 보드에는 내가 지적한 빨간색 원이 있습니다 추가 GPI 핀이 있습니다 이러한 핀을 사용하면 출력을 제어 할 수 있습니다

불을 켜고, 팬을 켜고, 네가 할 수있는 일이라면, 소리내어 보내라 따라서 이러한 것들을 통해 프로젝트를 확장 할 수 있습니다 그리고 그 컨트롤을 보드에 추가하면 더 많은 일을 할 수 있습니다 하드웨어 적으로 대부분의 일을 할 수있는 제작자입니다 괜찮아

그래서 우리는이 모든 것을 통과했습니다 우리는 조립에 대해 이야기했습니다 어떻게 설정합니까? 어떻게 자신의 일을합니까? 그리고 가장 중요한 것은, 나는 AIY를 사용하기를 원한다 AIY의 힘은 정말로 연결되어있다 Google과 같이 제공되는 많은 서비스 TensorFlow와 같은 조수

이 모든 서비스 기능을 활용하고 싶습니다 AIY는 글로벌 오픈 소스 커뮤니티의 일원입니다 우리는 GitHub에 이것을 게시하고, Raspberry Pi와 함께 작업합니다 Foundation, 우리는 Hackster, 그래서 온라인 메이커에 몰두하십시오 전세계 커뮤니티

그리고 이것은 제작자를 만드는 재미의 일부입니다 알았어 나는이 기회를 빌어 서 모두에게 말하고 싶다 여기 관중 들어, 미국에서 온 사람들, 지금 진행중인 콘테스트에 참가할 수 있습니다 해커 스터 (Hackster)와 중국 교육부 (Ministry of Education) 이른바 영미 중공업 대회 (Young-China Makers Contest)라고 불린다

우승자는 중국으로 모든 비용을 지불해야합니다 방 안에있는 당신들, 당신은 미국 제조사들입니다 이 콘테스트에 참가하십시오 Hackster의 웹 사이트에 대한 자세한 내용 괜찮아

오늘 우리의 대화에서 가져온 열쇠, Sebastian과 Dushyantsinh의 언급 그 이야기의 일부에서, 그리고 나의 것, 중요한 테이크 아웃은, 자원별로, 글로벌 AIY 웹 사이트 이 주소는 aiyprojectswithgooglecom입니다 키트는 지금 구매할 수 있습니다 미국의 대상 상점에서 그리고 다음 주말 베이 지역에서도 Maker 's Faire가 있습니다

Maker 's Faire에 가입하는 지역에 계시다면, Maker 's Faire에서 키트를 얻을 수 있습니다 Python 프로그래밍을 사용하여 Raspberry Pi를 사용하여 학습 당신이 필요로하는 것의 일부입니다 귀하의 응용 프로그램을 확장하기 위해 자신을 참여 시키려면, TensorFlow 기계 학습 모델 사용 AI의 힘을 응용 프로그램에 실제로 구현할 수 있습니다 그리고 그것은 AIY의 힘입니다 그리고 마침내, 요약에, 나는 행동 촉구를 말할 것이다

네가 할 수있는 일들 모두가 할 수있는 우리의 키트를 가져 와서 건물을 시작하십시오 많은 재미와 물론 많은 Google 서비스를 배우게됩니다 Google I / O에는 Google Cloud, Google에 세션이 있습니다 TensorFlow의 어시스턴트 그 지식과 기술을 배우는 데 참여하십시오 다양한 센서, 컨트롤을 얻을 수 있습니다

해당 장치의 GPIO 포트에 연결합니다 재미있는 응용 프로그램을 많이 만들 수 있습니다 AI 기능을 활용할 수 있습니다 마지막으로 온라인 커뮤니티에 가입하십시오 우리는 곧 글로벌 AIY 모델 교환을 발표 할 것입니다

그 위에 응용 프로그램을 넣으십시오 전 세계 개발자 커뮤니티와 지식을 공유하십시오 그래서 세바스찬과 두샨 in과 함께, 오늘 우리 세션에 참여해 주셔서 감사드립니다 오늘 당신의 여행을 시작하십시오 고맙습니다

Bringing AI and machine learning innovations to healthcare (Google I/O ’18)

[음악 재생] 릴리 펭 : 안녕 모두들 내 이름은 릴리 펭이야

나는 의사로서 훈련을하고 있으며 나는 Google 의학에 종사하고있다 잘, Google 인공 지능 건강 관리 팀 저는 제품 매니저입니다 그리고 오늘 우리는 몇 가지 프로젝트에 대해 이야기 할 것입니다 우리 그룹에서 우리가 해왔 던 그래서 처음에는, 당신이 많은 것을 얻을 것이라고 생각합니다

그래서 나는 이것을 너무 많이 지나치지 않을 것입니다 그러나 우리는 깊은 학습을 적용하기 때문에 의료 정보에, 나는 원하는 종류의 조금만 사용되는 몇 가지 용어를 정의하는 것 그러나 다소 불충분하게 정의됩니다 그래서 처음으로, 인공 지능 – 이것은 꽤 광범위한 용어이며 그 거대한 프로젝트를 포함합니다 비인간적 인 지능을 구축한다 기계 학습은 특별한 유형입니다 인공 지능에 대해서, 그것은 더 똑똑해질 수있는 기계를 가르치고 있습니다

그리고 깊은 학습은 특별한 유형입니다 너희들 기계 학습의 아마 꽤 많이 들었고 꽤 많이 들었습니다 우선 무엇보다 깊은 학습이란 무엇입니까? 그래서 인공 신경 네트워크의 현대 환생입니다 실제로 1960 년대에 발명되었습니다 그것은 조직 된 단순한 훈련 가능한 단위의 모음입니다 레이어에서

그리고 그들은 함께 작업하여 복잡한 작업을 해결하거나 모델링합니다 따라서 일반적으로 데이터 세트가 작고 계산이 제한적일 경우, 우리가 1980 년대와 90 년대에 가진 것입니다 일반적으로 다른 접근 방식이 효과적입니다 그러나 더 큰 데이터 세트 및 더 큰 모델 크기 더 많은 컴퓨팅 성능을 제공한다면, 우리는 신경 네트워크 훨씬 더 잘 작동합니다 실제로 두 가지 테이크 아웃이 있습니다

너희들이이 슬라이드에서 나가길 바란다 하나는 깊은 학습 열차 알고리즘입니다 충분한 데이터가 주어지면 매우 정확합니다 두 가지, 깊은 학습이 이것을 할 수 있습니다 기능 공학없이 그리고 그것은 명시 적으로 규칙을 쓰지 않고 의미합니다 그럼 그게 무슨 뜻이야? 글쎄, 전통적인 컴퓨터 비전에서, 우리는 규칙을 쓰는 데 많은 시간을 할애한다

특정 예측 작업을 수행하기 위해 기계가 따라야한다는 것을 의미합니다 길쌈 신경 네트워크 (convolutional neural networks) 우리는 실제로 기능에 거의 시간을 소비하지 않습니다 이러한 규칙을 작성하고 작성합니다 우리가 데이터 준비에 소비하는 대부분의 시간 수치 최적화 및 모델 아키텍처 그래서 나는이 질문을 꽤 많이 받는다

그리고 문제는 얼마나 많은 데이터가 충분한 데이터인지입니다 깊은 신경 네트워크? 일반적으로 더 많은 것이 좋습니다 그러나 특정 시점을 넘어선 수익이 감소하고 있습니다 일반적인 경험 법칙은 클래스 당 약 5,000 개의 긍정적 인 것을 좋아합니다 그러나 중요한 것은 좋은 관련 데이터입니다

쓰레기통에, 쓰레기통 이 모델은 예측하기 위해 무엇을 요구 하는지를 매우 잘 예측합니다 그래서 당신이 기계 학습을 어디에서 생각하는지, 특히 깊은 학습은 가장 큰 영향을 미칠 수 있습니다 실제로 장소에 있습니다 살펴볼 많은 데이터

우리 이사 중 한 명인 Greg Corrado가 최선을 다합니다 깊은 학습은 당신이 해낸 일에 정말 좋습니다 시간, 그리고 10,001 번째 시간에, 당신은 단지 그것의 아플 뿐이에요 더 이상하고 싶지 않아 그래서 이것은 검진에서 건강 관리에 정말 좋습니다

많은 환자를 볼 수있는 응용 프로그램 잠재적으로 정상입니다 전문 기술이 제한되어있는 곳에서도 좋습니다 오른쪽에 그래프가 나타납니다 세계 각국의 방사선과 의사 부족의 부족 그리고 이것은 다른 의학 전문 분야에도 해당됩니다

그러나 방사선과 의사가 여기 있습니다 그리고 우리는 근본적으로 의료 전문 지식의 세계적 부족을 봅니다 그래서 심사 신청 중 하나 우리 그룹이 당뇨병 성 망막증을 앓고 있습니다 더 쉽기 때문에 우리는 이것을 DR이라 부릅니다 당뇨병 성 망막증보다

그리고 예방 가능한 실명의 가장 빠른 성장 원인입니다 당뇨병 환자는 모두 4 억 5 천만 명에 달합니다 1 년에 한 번 상영됩니다 이것은 뒤의 사진을 찍음으로써 이루어진다 특별한 카메라로 눈의 모습을 볼 수 있습니다

그리고 그림은 그 것처럼 조금 생겼습니다 의사가 이런 이미지를 얻을 때 의사가하는 일 질병없이 1에서 5 단계로 등급을 매기 는가, 건강하고, 질병을 번식시키고, 그것은 마지막 단계입니다 그리고 그들이 등급을 매길 때, 때로는 매우 미묘하게 보입니다 결과, 미세 동맥류라고하는 작은 것들 그것은 눈의 혈관에 outpouchings입니다 그리고 그것은 당뇨병이 얼마나 안 좋은지를 나타냅니다

당신의 비전에 영향을 미치고 있습니다 그래서 불행히도 세계의 많은 지역에서, 이 일을하기에 안과 의사가 충분하지 않습니다 그래서 인도에있는 한 파트너와 함께, 또는 실제로 인도에있는 우리의 파트너 몇, 전국에 127,000 명의 안과 의사가 부족합니다 결과적으로 환자의 약 45 % 질병이 감지되기 ​​전에 시력 손실의 일종을 겪는다 네가 회상 한대로이 질병이 완전히 예방할 수있었습니다

다시 한번 이것은 일어나서는 안되는 것입니다 그래서 우리가하기로 결심 한 것은 우리가 파트너가 된 것입니다 인도에 몇 군데 병원을두고, 미국의 선별 서비스 제공 업체입니다 그리고 우리는이 첫 번째 시도에 대해 약 130,000 개의 이미지를 얻었습니다 우리는 54 명의 안과 의사를 고용하고 라벨링 도구를 만들었습니다

그리고 54 명의 안과 전문의는 실제로 이 스케일에서이 이미지의 등급을 매겼는데, DR에서 증식으로 흥미로운 점은 실제로 의사가 이미지를 호출하는 방법에 약간의 변동성이 있습니다 그래서 우리는 실제로 약 880,000 건의 진단을 받았습니다 이 레이블이 지정된 데이터 세트를 사용하여 알려진 콘볼 루션 신경망 이것은 시작이라고합니다

나는 너희들 중 많은 사람들이 그것에 익숙하다고 생각한다 일반적으로 사진 앱을 위해 고양이와 개를 분류하는 데 사용됩니다 또는 다른 검색 애플 리케이션을 위해 그리고 우리는 그저 안저 영상을 재사용했습니다 그래서 우리가 배운 다른 것 우리가이 일을하는 동안 그게 정말 유용했던 동안 이 5 점 진단, 그것은 또한 믿을 수 없을만큼 의사에게 유용하다

이미지 품질과 같은 하우스 키핑 예측에 대한 피드백, 이것이 왼쪽 눈인지 오른쪽 눈인지, 또는 이것이 망막의 어느 부분인지 알 수 있습니다 그래서 우리는 그것을 네트워크에도 추가했습니다 그럼 얼마나 잘하는거야? 이것이 우리 모델의 첫 번째 버전입니다 우리가 2016 년 의학 저널에 발표 한 내용은 제가 믿습니다 여기 왼쪽에는 차트가 있습니다

총계에있는 모형의 성과의 약 10,000 개 이상의 이미지 민감도는 y 축에 있고, 1 마이너스 특이성 x 축에있다 감도는 시간의 백분율입니다 환자가 질병에 걸렸다면 그 모델이 그 질병을 부르고 있었을 때, 맞았습니다 그리고 특이성은 비율입니다

모델에 질병이없는 환자들 또는 의사가 옳았다 그리고 당신은 뭔가를 원한다는 것을 알 수 있습니다 높은 민감도와 높은 특이성을 지니고 있습니다 그리고 위아래로 – 또는 위로 그리고 왼쪽으로 좋다 그리고 차트에서 여기를 볼 수 있습니다

작은 점들이 그 의사들이라고 동일한 세트를 채점하고있었습니다 그래서 우리는 의사와 매우 가까워졌습니다 그리고 이들은 보드 인증을받은 미국의 의사들입니다 그리고 이들은 안과 의사, 일반 안과 의사들입니다 훈련으로

사실 F 점수를 보면 감도와 특이성의 결합 된 척도이며, 우리는 중앙 안과 전문의보다 조금 나아졌습니다 이 특별한 연구에서 그래서 그 이후로 우리는 모델을 향상 시켰습니다 그래서 작년에 약 2016 년 12 월 우리는 일종의 동위에 있었다 일반인들과

그리고 올해는 – 이것은 우리가 발행 한 새로운 논문입니다 우리는 실제로 망막 전문가를 사용했습니다 이미지를 채점하기 위해 그래서 그들은 전문가입니다 우리는 또한 그들이 동의하지 않을 때 논쟁하도록했습니다

진단이 뭔지에 대해서 그리고 우리는 모델을 언제 사용 하는지를 볼 수 있습니다 그 사실을 근거로 모델은 매우 잘 예측했습니다 게다가 올해 우리는 일종의 동위에 있습니다

망막 전문가와 그리고이 가중 카파는 단지 5 수준의 합의 그리고 본질적으로 우리는 안과 의사와 망막 사이의 일종 사실 전문가들 사이에 망막 전문가 우리가 작업 해 왔던 또 다른 일 모델을 개선하는 것을 넘어서 실제로는 네트워크를 설명하려고 애쓰다 그것이 어떻게 예측을하고 있는지 다시 한번, 연극이나 연극을 가져 가라

소비자 세계의 플레이 북에서, 우리는 show me where라는 기술을 사용하기 시작했습니다 그리고 이것은 이미지를 사용하는 곳입니다 실제로 열 화상지도를 생성합니다 관련 픽셀은이 특정 예측을위한 것입니다 그래서 여기 포메라니스트의 그림을 볼 수 있습니다

그리고 히트 맵은 거기에 당신을 보여줍니다 포메 라니아 사람의 얼굴에있는 무언가이다 그것은 Pomeranian-y를 보게합니다 그리고 여기 오른쪽에는 아프간 인의 사냥개가 있습니다 그리고 네트워크는 아프간 인 사냥개를 강조했다

그래서 이와 비슷한 기술을 사용하여, 우리는이를 안저 이미지에 적용했다 우리가 말했지, 어디 있는지 보여줘 이것은 가벼운 질병의 경우입니다 그리고 나는 가벼운 질병이라고 말할 수 있습니다 왜냐하면 – 잘, 그것은 나에게 완전하게 정상적으로 보인다

나는 거기에 어떤 질병이 있다고 말할 수 없다 하지만 고도로 숙련 된 의사라면 미세 동맥류 라 불리는 작은 것을 골라 낼 수있다 녹색 지점이있는 곳 다음은 중등도의 질병 사진입니다 그리고 이것은 당신이 볼 수 있기 때문에 조금 더 나쁩니다

여기 끝에 약간의 출혈 그리고 실제로 나는 신호 할 수 있는지, 하지만 거기에 피가 나옵니다 그리고 열지도 – 히트 맵이 있습니다 출혈을 일으킨다는 것을 알 수 있습니다 그러나이 이미지에는 두 가지 유물이 있습니다

그래서 작은 얼룩처럼 먼지가 있습니다 그리고이 작은 반사가 있습니다 이미지의 중간에 그리고 당신은 그 모델이 근본적으로 그것을 무시합니다 그럼 다음은 뭐니? 우리는 모델을 훈련 시켰습니다

우리는 다소 설명 할 수 있음을 보여주었습니다 우리는 그것이 올바른 일을한다고 생각합니다 무엇 향후 계획? 음, 우리는 실제로 의료 시스템에 이것을 배치해야합니다 우리는 의료 공급자와 제휴하고 있습니다 그리고 회사는이를 환자에게 제공해야합니다

실제로 제게 메가 박사님, 누가 저를 대담하게 말할 것입니까? 이 노력에 대해 좀 더 자세히 설명 할 것입니다 그곳에 그래서 심사 신청서를 제출했습니다 그리고 여기 진단의 응용이 있습니다 우리가 작업하고있는 그래서이 특별한 예에서 우리는 질병에 대해 이야기하고 있습니다

우리는 유방암에 대해 이야기하고 있습니다 그러나 우리는 유방암의 전이에 대해 이야기하고 있습니다 근처 림프절로 따라서 환자가 유방암 진단을 받았을 때 원발성 유방암이 제거되면, 외과의 사는 밖으로 약간 시간을 보낸다 우리가 림프절이라고 부르는 것을 조사 할 수 있도록 유방암이 전이되었는지 아닌지보기 그 노드들에게 그리고 그것은 환자를 어떻게 대하는가에 영향을 미칩니다

이 림프절을 읽는 것은 쉬운 일이 아닙니다 그리고 실제로 그들이 돌아올 때의 생체 검사의 약 24 % 그들을보기 위해, 24 %는 마디 상태의 변화를 가지고 있었다 이는 긍정적 인 경우 부정적인 것으로 읽음을 의미합니다 그리고 그것은 음성적이었고, 긍정적이었습니다 그래서 그것은 정말로 큰 문제입니다

4 분의 1에요 흥미로운 점은 다른 연구 결과에 따르면 무한한 시간을 가진 병리학 자, 실제로 데이터에 압도 당하지 않았다 매우 민감하기 때문에 94 %의 감수성 종양 환자에게 시간 제약을 가하면, 그들의 감수성 – 또는 미안, 공급자에, 병리학 자에게는 감도가 떨어집니다 그리고 사람들은 내려다보기 시작할 것입니다

거의 전이가 없을 수도 있습니다 그래서이 그림에 바로 거기에 작은 전이가 있습니다 그리고 그것은 보통 놓친이 작은 것들입니다 많은 정보가 주어지면 놀랍지도 않습니다 각 슬라이드에 있습니다

따라서 이러한 슬라이드 중 하나가 디지털화 된 경우, 약 10 기가 픽셀입니다 그리고 그것은 말 그대로 건초 더미에있는 바늘입니다 흥미로운 점은 병리학 자들이 실제로 그들이 자신의 모든 시간을 보면서 암의 73 %를 찾는다 슬라이드마다 오진 (false positive)이 발생합니다 그래서 우리는이 작업을 도울 수있는 모델을 교육했습니다

실제로 암 병변의 약 95 %를 찾습니다 슬라이드 당 8 개의 가양 성이 있습니다 그래서 이상적인 시스템은 분명히 하나입니다 모델을 사용하여 매우 민감하지만 매우 구체적입니다 병리학자를 실제로 훑어 보는 것에 의존하는 거짓 긍정 (false positive)과 오탐 (false positive)이라고합니다 그래서 이것은 매우 유망하며 우리는 지금 클리닉에서 유효성 검사를하고 있습니다

독자 연구의 관점에서, 이것이 실제로 어떻게 의사와 상호 작용하는 것은 정말로 중요합니다 그리고 분명히 다른 조직에 응용할 수 있습니다 나는 림프절에 관해 이야기했지만 초기 연구가있었습니다 실제로 이것은 전립선 암에서 효과가 있음을 보여줍니다 글리슨 그레이딩에 대해서도 마찬가지입니다 그래서 이전 예제에서 우리는 말했습니다

얼마나 깊이있는 학습이 매우 정확합니다 그리고 그들은 의사가 이미 만들었던 전화를하는 경향이 있습니다 그러나 의사가 현재하지 않는 것들을 예측하는 것은 어떨까요? 이미징에서 할거야? 그래서 당신이 이야기의 처음부터 기억하고 있듯이, 깊은 학습에 대한 위대한 것들 중 하나 매우 정확한 알고리즘을 훈련시킬 수 있다는 것입니다 명시 적으로 규칙을 작성하지 않아도됩니다 그래서 우리는 완전히 새로운 발견을 할 수 있습니다

그래서 왼쪽 그림은 종이에서 나온 그림입니다 우리가 최근에 출판 한 다양성을 예측하는 훈련 된 심층 학습 모델 의 심혈관 위험 요인 여기에는 나이, 자기보고 섹스, 흡연 상태, 혈압, 일반적으로 의사들 환자의 심장 혈관 위험을 평가하기 위해 지금 고려해보십시오 적절한 치료 권고를하십시오 그래서 우리는 우리가 이러한 요소 중 많은 것을 예측하고, 매우 정확하게, 실제로 5 년 위험을 직접 예측할 수 있습니다

심장 사건의 그래서이 연구는 아주 일찍, 정말 폐활 적이었고, 이 예측을위한 AUC는 07이다 이 숫자가 의미하는 것은 두 장의 그림이 주어지면 심혈관 사건이없는 환자의 사진 그리고 한 환자의 사진은 약 70 % 그 시간의 대부분의 의사들은 약 50 %의 시간을 보냈고, 그것은 무작위 적이기 때문에 – 마치 혼자 망막 이미지를 기반으로하기가 어렵습니다 그렇다면 왜 이것이 흥미로운가? 일반적으로 의사가 시도 할 때 심혈관 질환 위험을 평가하기 위해, 관련된 바늘이 있습니다

그래서 나는 누군가가 혈중 콜레스테롤을 섭취했는지 모른다 상영 전에 밤에 금식하고 혈액 샘플을 가져가 그런 다음 위험을 평가합니다 다시 한번, 저는 이것이 정말로 초기에 있다는 것을 강조하고 싶습니다

그러나 이러한 결과는 아이디어를 뒷받침합니다 우리가 뭔가를 사용할 수 있을지도 몰라 우리가 할 수 없었던 새로운 예측을하기 위해 이미지처럼 전에 만들어라 그리고 이것은 정렬로 수행 될 수 있습니다 비 침습적 인 방식으로

그래서 몇 가지 예를 들어 보았습니다 세 가지 예가 있습니다 얼마나 깊은 학습이 실제로 두 가지 가용성을 증가시킬 수 있는지 건강 관리의 정확성 그리고 내가 원하는 종류의 것들 중 하나 이것이 여기에있는 이유가 여기에 있음을 인정하십시오 TensorFlow는 점점 더 흥미 진진합니다

오픈 소스입니다 일반적인 기계 학습에서 이런 종류의 개방형 표준 어디서나 적용되고 있습니다 그래서 저는 Google에서 한 일의 예를 들었습니다 커뮤니티 전체에서 수행되는 많은 작업이 있습니다 매우 유사한 다른 의료 센터에서

그래서 우리는 무엇에 대해 정말 흥분하고 있습니다 이 기술은 건강 관리 분야에 도움이 될 수 있습니다 그리고 그걸로 Jess Mega를 소개하고 싶습니다 저와 달리, 그녀는 진짜 의사입니다 그리고 그녀는 Verily의 최고 의료 책임자입니다

제시카 메가 : 여기에와 주셔서 감사합니다 그리고 우리를 걷어차 기 위해 릴리에게 감사드립니다 나는 AI와 건강 관리에 대한 흥분을 생각한다 더 커질 수는 없다 들으 셨던 것처럼, 제 이름은 메스 제스입니다

나는 심장 전문의이고, 너무 기쁘다 알파벳 가족의 일부입니다 Verily는 Google과 Google X에서 성장했습니다 그리고 우리는 전적으로 의료 및 생명 과학에 중점을두고 있습니다 우리의 사명은 세계의 건강 정보를 취하는 것입니다

환자가보다 건강한 삶을 누릴 수 있도록 유용하게 만듭니다 그리고 오늘 제가 이야기 할 예제는 당뇨병에 초점을 맞추고 있습니다 릴리가 시작한 대화에 정말로 도움이됩니다 하지만 일시 중지하는 것이 매우 중요하다고 생각합니다 건강 데이터를 광범위하게 생각해보십시오

현재 청중에있는 모든 개인 약 몇 기가 바이트의 건강 데이터가 있습니다 그러나 수년 동안 건강에 관해 생각한다면 유전체학에 관해서 생각해보고, 분자 기술, 이미징, 센서 데이터, 환자보고 데이터, 전자 건강 기록 우리는 엄청난 액수에 대해 이야기하고 있습니다 데이터, 기가 바이트의 데이터 그리고 Verily와 Alphabet에서 우리는 우리가 환자들을 도울 수 있도록이 일에 앞장설 것입니다 우리가 초기에 우리의 노력 중 일부를 집중하고있는 이유 당뇨병에 이것은 긴급한 건강 문제입니다

약 10 명 중 1 명이 당뇨병을 앓고 있습니다 당뇨병에 걸릴 때 시체에서 설탕 포도당을 어떻게 다룰 지 그리고 당신이 prediabetes에 대해서 생각한다면, 누군가 당뇨병에 걸리기 전에 조건, 3 명 중 1 명입니다 오늘 청중의 전체 중앙 섹션이 될 것입니다 이제 몸이 처리 할 때 어떤 일이 발생합니까? 포도당은 다른 방법으로, 당신은 다운 스트림 효과를 가질 수 있습니다

릴리가 당뇨병 성 망막증에 대해 이야기하는 것을 들었습니까? 사람들은 심장, 신장, 말초 신경 병증 이것이 우리가 앞서 나아갈 필요가있는 질병의 유형입니다 그러나 우리는 우리가 다루려고하는 두 가지 주요 쟁점을 가지고 있습니다 첫 번째는 정보 격차입니다 따라서 당뇨병 환자 중 가장 견고한 환자들조차도 – 우리 할아버지는이 중 하나 였어

하루에 네 번씩 혈당을 확인합니다 오늘이 누구인지 모르겠다 어떤 간식을 먹을 수 있습니다 나는 캐러멜 팝콘을 실제로 가지고 있었다 누구든지 그 중 하나가 있었나요? 그래, 대단하다

우리의 생물학과 우리의 포도당은 위아래로 가고 있습니다 그래서 제가 그 순간에 포도당을 검사하지 않으면, 우리는 그 데이터를 포착하지 못했을 것입니다 그래서 우리는 생물학이 항상 일어나고 있다는 것을 압니다 심장병 전문의로 병원에있는 환자를 볼 때, 나는 누군가의 심장 박동수, 혈압, 모든 것을 볼 수있다 이 생체 신호 중 실시간으로 그리고 사람들은 집으로 돌아가지만 생물학은 여전히 ​​일어나고 있습니다

따라서 정보 격차가 있습니다 특히 당뇨병 환자와의 차이 두 번째 쟁점은 의사 결정 갭입니다 1 년에 1 회, 1 년에 2 회, 그러나 매일 건강에 대한 결정이 내려지고 있습니다 그들은 매주, 매일, 매시간 일어나고 있습니다

그리고 우리는 어떻게이 격차를 좁히기로 결정합니까? 진실로 우리는 세 가지 핵심 사명에 집중하고 있습니다 그리고 이것은 거의 모든 프로젝트에 적용될 수 있습니다 우리는 교대하는 법을 생각하고 있습니다 에피소드 및 반응 치료에서 훨씬 예방적인 치료에 이르기까지 다양합니다 그리고 그 일을하고 요점을 이해하기 위해 우리는 실제로 AI의 힘을 사용할 수 있습니다

우리는 세 가지를해야합니다 올바른 데이터를 수집하는 것에 대해 생각해야합니다 그리고 오늘 저는 지속적인 포도당 모니터링에 대해 이야기 할 것입니다 그런 다음이 데이터를 어떻게 구성하여 형식으로되어 있는지 확인하십시오 우리는 환자의 잠금을 해제하고 활성화하여 진정으로 도움을 줄 수 있습니까? 그래서 우리가 당뇨병 분야에서 이것을 행하는 지 여부 오늘 또는 우리의 수술 로봇에 대해 듣게 될 것입니다

이것은 일반적인 전제입니다 생각할 첫 번째 사항은 데이터 수집입니다 그리고 릴리가 쓰레기를 말하면서, 쓰레기가 나옵니다 이해하지 못하면 통찰력을 찾을 수 없습니다 우리가보고있는 것

그리고 절대적으로 혁명적 인 한 가지 매우 작은 생체 적합성에 대해 생각하고있다 전자 제품 따라서 우리는 차세대 감지 기술을 연구하고 있습니다 그리고 여기에서 데모를 볼 수 있습니다 이것이 예를 들어, 매우 작은 연속 포도당 모니터가있는 곳에서 이러한 도구 중 일부를 만들기 위해 협력하고, 이것은보다 매끄러운 통합으로 이어질 것입니다

다시 한번, 당신은 단지 포도당 값이 얼마되지 않습니다 그러나 우리는 당신 몸이 어떻게 취급하고 있는지 이해합니다 설탕, 제 2 형 당뇨병 환자, 보다 지속적인 방식으로 그것은 또한 우리가 인구 수준에서 일어나는 일 그러나 개인적인 차원에서 일어날 수있는 일 특정 음식을 섭취 할 때 그리고 마지막으로 장치 비용을 줄이려고 노력합니다 그래서 우리는 건강을 정말로 민주화 할 수 있습니다

다음 목표는이 모든 데이터를 어떻게 구성 할 것인가입니다 그리고 저는 환자와 의사로서 말할 수 있습니다 사람들이 말할 수있는 것은 데이터가 놀랍고, 쓰나미로 데이터를 압도하지 마십시오 당신은 그것을 조직해야합니다 그래서 우리는 사노피와 파트너십을 맺었습니다

Onduo라는 회사에서 그리고 그 생각은 환자를 그들의 보살핌과 도움의 중심에 당뇨 관리를 단순화합니다 이것은 정말 누군가의 마음에 도착합니다 누가 더 행복하고 건강해질 것인가 그렇다면 실제로 무엇을 의미합니까? 우리가하려는 일은 사람들에게 힘을 실어주는 것입니다 그들의 포도당 제어와 함께

그래서 우리는 미국 당뇨병 협회 권장 포도당 범위를 살펴보십시오 그러면 사람들이 당신에게 보여주는 그래프를 얻습니다 하루의 모습과 시간의 비율 너는 범위 안에있다 다시, 환자 또는 사용자에게 제공 그 데이터는 그들이 결정의 중심이 될 수 있도록 – 마지막으로 Google 피트니스를 통해 단계를 추적합니다 다음 목표는 이해하려고 노력하는 것입니다

포도당이 당신의 활동과식이 요법과 어떻게 조화를 이루고 있는지 여기에는 프롬프트를 표시하는 앱이 있습니다 음식 사진 그리고 이미지 인식을 사용하고 Google의 TensorFlow를 사용하여, 우리는 음식을 식별 할 수 있습니다 그리고 이것이 진정한 개인적 통찰력이있는 곳입니다

진짜가되기 시작하십시오 왜냐하면 당신이 특정 식사를 먹으면, 몸이 어떻게 끝나는 지 이해하는 것이 도움이됩니다 그것과 관련있다 그리고 흥미로운 예비 자료가 있습니다 미생물이 변할 수 있음을 시사한다

내가 바나나에 반응 한 방식, 예를 들면, 그렇지 않으면 응답 할 수 있습니다 그리고 그것은 모두가 중요하기 때문에 중요합니다 우리가 만드는 일반적인 권고 사항이 갑자기 의사로서 누군가 나를 클리닉에서 보러 오면 2 형 당뇨병이 있습니다

여기 당신이해야 할 일들이 있습니다 당신은 당신의 다이어트, 운동, 구두 약을 복용하십시오 인슐린, 운동도 받아야합니다 당신은 당신의 발 의사, 당신의 눈을보아야 만합니다 의사, 주치의, 및 endocrinologist

그리고 그것은 통합 할 것이 많습니다 그래서 우리가하려고하는 것은 쌍입니다 이 모든 정보는 간병과 함께 간단한 방법으로 제공됩니다 이 여행을 돕는 사람입니다 이 정보가 떠오르면 내가 여기서 너에게 보여준 것의 가운데를 들여다 보면 의료지도와 그 사람이 보는 것, 당신은 여러 다른 라인을 볼 수 있습니다

드릴 다운하고 살펴보기를 바랍니다 이것은 데이터 간의 차이점을 보여줍니다 에피소드 식 포도당 예제에서 볼 수 있습니다 또는 지속적인 포도당 모니터로보고있는 것 이 새로운 감지로 가능합니다 그리고 우리가이 연속 포도당을 뚫어 말하며 모니터하고 우리는 일의 클러스터를 봅니다

이것은 하나의 예입니다 우리는 패턴을보기 시작할 것입니다 릴리가 언급했듯이 이것은 유형의 것이 아닙니다 개별 환자, 간병인 또는 의사가 파고 있지만, 여기가 당신은 학습 모델의 힘을 풀기 시작합니다 우리가 볼 수있는 것은 클러스터입니다

다른 아침의 우리는 긍정적 인 연관성을 만들거야 모두가 여기에서 믿을 수 없을만큼 건강하게 먹는다고 Google I / O에서 빨간색 아침의 클러스터가 될 수도 있습니다 하지만 우리는 일상 생활로 돌아가서 스트레스를받습니다 우리는 다른 종류의 음식을 먹고 있습니다

그러나 대신에, 일반적인 조언을하는 대신에, 우리는 다른 모델을 사용하여 지적 할 수 있습니다 뭔가 진행되고있는 것처럼 보입니다 예를 들어 환자 한 명과 수요일 즈음에 군집이 보였다 그래서 수요일에 무슨 일이 일어나고있는거야? 그 사람이 가고 멈추고 있는가? 특정 위치 또는 어쩌면 거기에 있습니다 그날 많은 스트레스

그러나 다시 한번, 일반적인주의를 기울이지 않고, 가장 포괄적 인 방법으로 치료를 시작할 수 있습니다 실용 가능한 예 다시 한번 우리가 말하는 것에 대해 생각해보십시오 데이터 수집, 구성 및 활성화 매우 관련성이 높습니다 이것이 우리가 당뇨병 관리에 관해 생각하는 방식입니다

이것이 바로 AI가 작동하는 방식입니다 우리는 오늘 아침 다른 토론에서 들었습니다 우리는 문제에 대해 생각해 봐야 해 우리는 이러한 도구를 사용하여 실제로 만들 것입니다 차이

그래서 우리가 생각할 수있는 다른 방법은 무엇입니까? 정보 활성화에 대해서? 그리고 릴리에게서 당뇨병 성 망막증 실명의 주요 원인 중 하나입니다 우리가 뛰어난 포도당 관리를하더라도, 말기 장기 손상이 시작될 수도 있습니다 그리고 나는 그 상승 된 포도당을 언급했다 레벨이 결국 안저 및 망막에 영향을 줄 수 있습니다 이제 당뇨병 환자들 심사를 받아야합니다

하지만 이전에 내가 너에게 준 이야기에서 우리가 환자에게 묻는 것의 세탁 목록 당뇨병에 걸린 사람 그래서이 공동 작업으로 우리가하려는 일은 구글과 함께, 어떻게 우리가 실제로 제품을 앞서 생각하고 생각하다 우리가 실현할 수 있도록 엔드 – 투 – 엔드 솔루션에 대해 오늘날 존재하는 어려움을 제거하십시오 이 문제는 상영에 관한 한 그 중 하나이기 때문에 내게 필요한 옵션이며 다른 하나는 검안의와 안과 의사에게 접근 할 수 있습니다

그리고 이것은 미국의 문제입니다 개발 도상국 에서뿐만 아니라 그래서 이것은 단지 문제가 아니라 지역적 문제입니다 이것은 우리가 매우 세계적으로 생각할 때입니다 우리는 해결책에 대해 생각합니다 우리는이 데이터를 일찍이 생각해 보았습니다

우리는 알고리즘을 사용할 수 있고 두 감도 모두를 높일 수 있습니다 당뇨 망막 병증의 진단과 특이도 황반부 종 그리고 이것은 "JAMA"에 게시 된 데이터입니다 릴리가 잘 설명했듯이 그렇다면 우리는 어떻게 생각할 것인가? 이 제품을 만드는 방법에 대해? 알파벳 같은 장소에서 일하는 것의 아름다움 오늘 당신과 같은 파트너와 함께 일하는 것이 우리 모두입니다

생각할 수있는 것, 우리가 해결해야 할 문제가 무엇인지, 알고리즘을 작성하십시오 그러나 우리는 그 때 뒤로 물러 설 필요가있다 보건 분야에서 활동한다는 의미 그리고 생명 과학의 공간에서? 우리는 이미지 획득, 알고리즘, 그 정보를 전달하는 것 의사뿐 아니라 환자에게도 도움이됩니다 우리가하는 일은이 정보를 취하는 것입니다 현재 일부 파트너와 협력하고 있습니다

현재 유망한 파일럿이 있습니다 인도에서와 마찬가지로, 우리는 듣고 싶습니다 이른 피드백 그리고 두 가지 정보가 있습니다 나는 너와 나누고 싶었다

하나는이 초기 관측을보고, 우리는 AI로 더 높은 정확도를보고 있습니다 더 큰 매뉴얼보다 의사로서 중요한 것은 – 방에 다른 의사가 있는지 나는 모른다 하지만 내가 항상 사람들에게 말하는 부분은 건강 관리 제공자를위한 공간이 될 것입니다 이 도구들이하는 일은 단지 우리가 일하는 것을 돕는 것입니다

그래서 때로는 사람들이 나에게 묻습니다 기술과 인공 지능입니다 의사를 대신하거나 의료 제도를 대체 할 것인가? 그리고 제가 생각하기에 그것은 단지 작품을 증대시키는 것입니다 우리는하다 청진기에 대해 생각한다면 – 그래서 저는 심장 전문의이고 청진기입니다

약 200 년 전에 발명되었습니다 우리가하는 일을 대체하지는 않습니다 그것은 단순히 우리가하는 일을 보강합니다 그리고 나는 우리가 계속하는 것과 비슷한 주제를 보게 될 것이라고 생각합니다 더 많은 것을 돌보는 방법에 대해 생각해보십시오

환자에게 효과적인 방법 그래서 여기서 가장 먼저 AI가 더 잘 수행되고 있다는 것입니다 수동 그레이더보다 그리고 두 번째로 생각하는 것입니다 그 환자 기초에 대해서

우리는 어떻게 진료를 진정으로 민주화합니까? 그리고 조종사에게서 다른 격려하는 조각 우리가 시작할 수있는 아이디어였다 알고리즘으로 치료받는 환자의 기반을 증가시킨다 이제 밝혀 졌을 때, 나는 좋아할 것입니다 건강하게 모든 것을하는 것이 정말 쉽다는 것을 말하고 있습니다 간호 및 생명 과학

그러나 그것이 나왔던 것에 따라, 그것은 거대한 마을을 필요로한다 이런 종류의 일을하는 것 그럼 다음은 뭐니? 임상 입양의 경로는 무엇입니까? 그리고 이것은 이것이 대단히 흥미로 웠습니다 많은 재능있는 기술자들과 일하는 의사가 되라 및 엔지니어 우리는 이제 다른 임상 사이트와 파트너가되어야합니다

나는 여기서 언급했다 우리는 또한 FDA, 유럽 ​​및 그 밖의 규제 기관들도 마찬가지입니다 우리가하기로 결정한 진실로 한 가지 FDA 사전 인증이라고 불리는 것에 속하는 것입니다 프로그램 우리는 새로운 기술과 새로운 알고리즘 의료 보험에 가입하는 것이 중요하지만 지금은 그 방법을 알아 내야합니다

둘 다 안전하고 효과적입니다 그리고 저는 Alphabet에서 우리를 자랑스럽게 생각합니다 앞서 나가고 파트너 관계를 유지하십시오 FDA와 같은 단체들과 주의해야 할 두 번째 사항 우리가 진실로 진실로 Google 및 Nikon 및 Optus와 같은 다른 파트너와 함께 이 모든 것들이 모여 든다 진료를 변형시키려는 시도

그러나 나는 이것이 올바르게하면, 당뇨병뿐만 아니라 실제로 큰 기회가 있습니다 건강 정보의 전 세계에서 그것에 대해 생각하는 것은 흥미 롭습니다 내 시간을 대부분 보살 피는 의사로서 병원에있는 환자의 보살핌에 더 많은 접근을 시작하십시오 병원 밖에서? 하지만 우리가 잘한다면 우리가 앞서 나가면이 격차를 좁힐 수 있습니다 더 예방적인 방법을 찾아 낼 수 있습니다

우리는 올바른 정보를 수집 할 수 있습니다 우리는 인프라를 구성하여이를 구성 할 수 있습니다 그리고 가장 중요한 것은 그것을 활성화하는 방법을 알아낼 것입니다 그러나 나는 모두가 여기에서 알고 싶어한다 이것은 우리가 홀로 할 수있는 일이 아닙니다

정말로 우리 모두를 필요로합니다 그리고 Verily, 우리는 Google에, 우리는 Alphabet 여러분 모두와 함께 할 수 있기를 기대합니다 그래서이 여행에서 우리를 도와주세요 이 대화 후에 릴리와 나는 여기있을 것이다 우리는 여러분 모두와 행복하게 대화 할 수 있습니다

I / O에서 시간을내어 주셔서 감사합니다 [음악 재생]

Netmarble Games: A Case Study of Game Operation Enhancement with AI/ML (Cloud Next ’18)

[음악 재생] 나는 게임 서비스 AI 부서장입니다 동시에 기술 기술부 장 [INAUDIBLE], 넷 매블

네, 그리고 솔직히 말해서, 이것은 약간의 [INAUDIBLE]입니다 나를 믿거 나 말거나, 나는 하나이다 한국에서 인기있는 연사의 저는 한국어로 아주 좋은 연설을한다고 믿습니다 하지만 지금 영어로 말해야합니다 매우 긴장 했어요

솔직히이 세션을 취소하려 했어요 여러번– [웃음] -이 이벤트를 사용하여 개발자에게 질문하기 때문에 내 제품, 회사 제품을 제 시간에 개발하십시오 그리고 나는 네가 미국에서 연설을해야만한다고 말했다 일정을 이겨야 해 그리고 나는 조금 더 일찍 그것을 취소하는 것을 잊었다

지난 주에, 나는 [[? API?] Google Cloud에서 그리고 저는 행복하지 않다면서이 프로젝트를 취소하고 싶습니다 이 이벤트를 취소하고 싶습니다 그리고 그들은 말했다, 왜? 그리고 당신 이름은 이미 모든 곳에서 인쇄되어 있습니다 당신은 그렇게해야합니다 그리고 내가 말했지, 오, 안돼, 안돼, 안돼, 안돼, 안돼

제 프리젠 테이션이 그렇게 인기가 없습니다 참석하고 싶은 사람이 없습니다 하지만 여기에는 너무 많은 사람들이 있습니다 네,이 행사에 참여해 주셔서 감사합니다 그리고 네

그래서 나는 아마 3 일을 보냈다 자료를 준비하는 3 일간 내 경험을 [? GGP,?] 또한 Google PSO로 즐거운 추억을 남깁니다 하지만 우리가하기 전에, 나는 단지 Netmarble을 소개합니다 당신에게 친숙한 Netmarble, Netmarble 매우 큰 게임 회사입니다 그러나 한국에서는 1 위입니다

그러나 미국에서는 모두가 Kabam 또는 Jam City를 알고 있다고 생각합니다 그것이 우리 지점입니다 우리는 그들의 회사를 인수했습니다 하지만 Netmarble은 그렇게 인기가 없으므로 Netmarble을 소개하고 싶습니다 그러면 나는 어떤 종류의 물건을 설명 할 것이다

우리는 인공 지능과 기계 학습을 위해 노력하고 있습니다 그렇다면 우리가 한 일을 공유하고 싶습니다 어쩌면 3 번 정도의 사례 연구로 깊이 잠수 해보세요 나는 준비했다 예, 이것은 Netmarble입니다

우리 로고 야 그리고 이것이 우리의 주인공입니다 이름은 쿠쿠입니다 웃을 때 [INAUDIBLE]와 (과) 비슷한 것입니다 믿거 나 말거나, 이것은 공룡입니다

우리의 의장은 그것은 공룡입니다 하지만 그래, 조금 악어 같아 그러나 어쨌든, 그것은 공룡입니다 노란색은 우리의 기호 색입니다 그리고 이것은 "Marvel"의 주요 제목을 보여줍니다

"트랜스포머", "리니지 II"및 "StoneAge M" 및 "일곱 밤"및 모두의 대리석 " 이것이 우리의 핵심 제목입니다 우리 신문 아직도 긴장 돼있어 예, 외부 IP를 사용하고 있습니다

우리의 최신 마케팅 비용 그래서 우리가 디즈니의 "Marvel"을 따르는 이유 아마도 Hasbro의 "Transformer"일 것입니다 동시에 우리는 우리 자신의 강력한 지적 재산권을 만들려고 노력합니다 센터 인 "세븐 나이트"는 원래 IP입니다 그리고 우리는 "석기 시대"를 샀다

그리고 이것은 [INAUDIBLE] 모델 인 "Everybody 's Marble"입니다 이는 원래 IP이기도합니다 그리고 이것은 "계보 ll"입니다 – 매우 인기있는 MMORPG IP 중 하나입니다 그리고 엔씨 소프트에서 빌려 왔습니다 그리고 우리는 한국에서 커다란 성공을 거두었습니다

아마도 TBCF를 모두 보게 될지 모르겠습니다 우리는 미국에서이 타이틀을 마케팅하기 위해 Conan O'Brien을 사용하고 있습니다 그러나 우리는 미국에서 큰 성공을 기대하고 있습니다 우린 시도했지만 실패했습니다 어쨌든, 우리는 미국에서 더 큰 성공을하기 위해 최선을 다합니다

이것이 우리의 역사입니다 Netmarble은 젊은 회사가 아닙니다 Netmarble은 2000 년에 설립되었습니다 그리고 우리는 RPG 게임 개발자와 퍼블리셔도하고 있습니다 그리고 2013 년에는 RPG에서 전체 방향으로 변경했습니다

모바일로 그리고 우리는 그곳에서 성공하고 계속해서 빠르게 성장하고 있습니다 우리는 Tencent 및 [? EngiSoft ?] 그리고 우리는 잼 시티 (Jam City)를 인수하고 카불 (Kabam)을 인수했습니다 그리고 우리는 혁신으로 더 커질 것입니다

예를 들어,이 제목의 이름은 "ChaChaCha"입니다 이것은 한국 최초의 [INAUDIBLE] 메가 히트 게임입니다 그리고 이건 [? 괴물?] [? 길들이기 ?] 그리고 우리는 한국의 모바일 RPG 표준 그리고 또한, 우리는 실시간으로 [? 짓다 ?] [INAUDIBLE] 모델 인 "Everybody 's Marble"

그리고 이것은 놀랄만 한 [부적절한], 거대한 성공입니다 이 기간 동안 한국의 시장 점유율은 50 % 이상입니다 미쳤어 그리고 나서, "Lineage Revolution"을 시작했습니다 더 많은 하드 코어 타이틀을 기대합니다

우리 모바일 장면에서 인기가있어서 MMORPG를 출시했습니다 그리고 그것들은 또한 커다란 성공을 거듭합니다 그 다음 우리는 Kabam와 Jam City를 인수했다 미국 시장에서 개척하기 우리는 한국어이므로 무엇을 이해하는지 정말 어렵습니다

서양 사람들은 사랑합니다 그래서 우리는 단지 우리 자신을 찾습니다 돈을 사용하는 간단한 해결책 좋아, 어떤 회사 그래

예 이것이 우리의 11 년 성장 그래프입니다 미쳤어, 그렇지? 그리고 요즘에도이 경사를 계속 유지합니다 그리고 우리는 작년에 우리는 3 위 출판사입니다 Apple과 Google을 결합합니다 구글에 대해서만, 우리가 아는 한 제일입니다 그건 [INAUDIBLE] 맞죠? 네

[박수 갈채] 이것은 숫자입니다 우리는 매우 자랑 스럽습니다 그리고 우리는 전 세계적으로 3 위의 게임 퍼블리셔입니다 그리고 11 년 CAGR은 89 %이고 680 억 달러 MAU입니다 그것은 한국의 전체 인구보다 큽니다

또한 19 개의 독립 개발 스튜디오가 있습니다 우리는 한국에 3,000 명이 넘는 개발자를 보유하고 있습니다 아마도 우리는 3,500 명이 넘을 것입니다 [알아들을 수 없는] 그것은 매우 빠르게 자라고 있습니다 그리고 재미있는 점은, 우리는 단지 4 % 모바일 판매에 대한 세계 시장 점유율

우리는 아마 더 빨리, 어쩌면 5 또는 6과 10이 될 것으로 예상하고 있습니다 그리고 나의 의장은 항상 더 많은 시장을 얻으려고 우리를 밀어 붙이고 있습니다 전세계에 공유하십시오 그리고 나서, 세계 시장의 모바일 전 세계에서 매우 높은 곳입니다 그리고 중국에서는 사업이 없었습니다

그러나 한국과 중국 정부 정치적인 문제가있다 그리고 중국 시장에 진입하는 것은 정말로 어렵습니다 하지만 올해는 아마도 중국 시장에 진출 할 수있을 것 같습니다 우리는 그것을 기대하고 있습니다 그리고 그것은 올해 더 큰 성장을 할 것입니다

한국은 여전히 ​​우리에게 최고의 시장입니다 그러나 2 위는 북미에 있으며, 3 위는 일본이다 그리고 우리는 일본 시장에 집중하고 있습니다 올해는 일본에서 1 위를 차지했습니다 어제 우리는 새로운 타이틀을 시작했습니다

"전투기 Allstar의 왕"은 어제, 그리고 그것은 아주 좋은 출발처럼 보입니다 예 이것이 우리 스튜디오의 차트입니다 그리고 우리가 이것을 보여주고 싶습니다 너무 많은 스튜디오가 있습니다

즉, 개발할 수있는 [무관심한] 파이프 라인이 있음을 의미합니다 많은 주력 타이틀 그것은 우리를 매우 공격적으로 사업하게 만듭니다 예를 들어, 지난 주에 우리는 "StoneAge M"을 출시했습니다 이번 주에 우리는 "The King of Fighters Allstar"를 발표했습니다

다음 달에는 한국에서 새로운 타이틀을 시작할 예정입니다 다음 달에도 다음 달에 새로운 타이틀을 출시합니다 우리는 적극적으로 타이틀을 출시하고 있습니다 고맙습니다 그렇다면 우리는 인공 지능으로 무엇을하고 있습니까? 및 기계 학습? 그래서 Netmarble의 독창성을 설명하고자합니다

우리는 모바일 게임 퍼블리셔를 PC에서 모바일로 이끌고 있습니다 그리고 우리는 여전히 작은 PC 사업을하고 있습니다 그리고 네, 모바일에 갈 것입니다 동시에 우리는 한 장르에 초점을 맞추고 있지 않습니다 우리는 캐주얼 한 게임을하고 있습니다

동시에 우리는 여전히 액션 RPG를 개발합니다 그리고 요즈음, 우리는 우리의 MMORPG를 개발하고 있습니다 더 큰 돈을 벌기 위해 하지만 여전히 우리는 새로운 장르 [부주의] 더 빨리 성장할 수 있습니다 나는 큰 차이가 있다고 생각한다

우리와 다른 모바일 게임 회사간에 일반적으로 일반 회사는 초점을 맞추기 만합니다 한 장르 또는 한 장 제목 그러나 우리는 다양한 목표를 위해 다양한 장르를 만들고 있습니다 캐주얼 사용자에서 하드 코어로, 간단한 게임에서, MMORPG에 간단한 프로젝트 게임 우리는 모든 종류의 타이틀을 개발했습니다

그리고 우리는 많은 국가와 세계를 위해 일하고 있습니다 "7 박", "대리석 미래의 싸움", "계보 ll" "킹 오브 파이터 올스타" 우리는 한국, 동남아시아 및 일본에서 큰 성공을 거두고 있습니다 또한 미국 – 우리는 더 기대하고 있습니다 그렇게하기 위해, 우리는 많은 일을합니다

특히 우리는 여러 시도를하고있다 [? 입력?] [INAUDIBLE] 마케팅에서의 모바일 게임 운영 한국에서는 최고의 모바일 게임 베스트 마케팅을 정의합니다 그것은 우리가 모든 종류의 미디어 채널을 사용한다는 것을 의미합니다 2 주 동안 TV와 온라인 및 광고판을 포함하여 우리는 2 주 동안 만 미친 돈을 씁니다

그리고 그들은 우리에게 브랜드를 만들 것입니다 그렇다면 거대한 성공 한국에는 간단한 공식이 있습니다 거대한 돈을 모바일 타이틀과 함께 우리는 그것을 정의합니다

그리고 동시에, 우리는 다른 [무관심] 글로벌 마케팅 트렌드 예를 들어, 성과 마케팅 한국에서는 퍼포먼스 마케팅이 그렇게 중요하지 않습니다 제가 말했듯이, 대중 마케팅은 시장을 지배합니다 모바일 게임 시장

일반적으로 한국 기업은 실적에 익숙하지 않습니다 마케팅 여기서는 성과 마케팅이 중요하며, 어쩌면 TV 광고 나 광고판이 중요하지 않을 수도 있습니다 왜? 나는 모른다 보이는구나

그러나 한국에서는 모든 종류의 정보를 수집하고 있습니다 최고의 마케팅에 대해 그리고 한국 이외의 지역에서는 성능 마케팅을 채택하고 있습니다 경향 그리고 일본에서도 일본은 매우 독특한 장소입니다

그것은 매우 이해하기가 매우 어렵습니다 왜 이런 종류의 방법이 효과가 있는지, 왜 이것이 작동하지 않는지 이해하기 정말 어렵습니다 그러나 우리는 몇 년 동안 일본에서 성공하려고합니다 우리는 모든 종류의 정보를 수집하고 있습니다

그리고 마침내 우리는 [무관심]을 얻었습니다 이제 우리는 거의 같은 능력을 가지고 있다고 믿습니다 일본 기업으로 그래서 Netmarble의 AI 및 기계 학습을위한 힘 다양한 최상의 데이터 및 운영 노하우가 될 것입니다 우리는 다양한 장르 데이터, 다양한 시장, 다양한 마케팅 방법, 다양한 작업 – 캐주얼에서 하드 코어, 아시아에서 유럽 및 북미, 대량 데이터 기반의 고성능 마케팅, 그리고 빨리 [? 입양?] 일본 마케팅 전문, 상위 10 대 매출의 주력 타이틀 유지 5 년 동안 차트 우리는 5 년간 이러한 종류의 데이터를 수집하고 있습니다

그것은 우리의 특별한 무기입니다 Netmarble과의 주요 차이점이 있다고 생각하십시오 및 다른 게임 회사 그러나 그러한 종류의 데이터가 중요합니다 나는 그것이 중요하다고 생각한다

왜냐하면 [INAUDIBLE] title 보통 방법을 즐기는 [? 그냥?] [? ?] [? 일하는거야?] 맞지? [? 정복?]과 [? 고려해?] 결말 모바일 게임은 상당히 다릅니다 노출을 극대화하기 위해 자유롭게 플레이 할 수 있습니다 동시에 모든 종류의 콘텐츠를 선호합니다 유지 비율, 높은 유지 비율을 유지합니다

누군가는 정말 경쟁을 좋아합니다 누군가 커뮤니티를 정말 좋아합니다 누군가는 정말로 도전하는 것을 좋아합니다 누군가는 정말로 힘을 좋아합니다 그래서 우리는 하나의 제목에 모든 종류의 내용을 준비합니다

우리의 성공 가능성을 극대화합니다 그것은 Netmarble의 방식입니다 이 푸른 색 모양은 한국이고 이것은 브뤼셀입니다 이것은 미국, 대만입니다 같은 제목, 같은 균형, 하나의 빌드,하지만 모든 나라 다른 방식으로 그것을 즐긴다

정말 재밌 네요 그리고 이것은 시간 축입니다 그리고 이것은 [? 시도해 봐?] [? 즐길 수 내용 푸른 색은 한국이고 보라색은 미국 – 거대한 차이 몇몇 제목에 정복하거나 번호 하나가되는 가장 쉬운 방법은, [INAUDIBLE] 가장 효율적인 방법이 있습니다

그러나 어쨌든, 미국 친구들은 다르게 플레이합니다 한국 남자들은 다르게 게임한다 모두 다 다릅니다 우리는 게임 내 데이터의 종류를 가지고 있습니다 나는 이것이 우리에게 정말로, 정말로, 정말 강력한 무기라고 믿습니다

그러나 문제는 우리 출판의 커다란 유산이 있다는 것입니다 비즈니스 측면에서 PC 측면 그래서 우리는 Google과 매우 좋은 관계를 유지하고 있습니다 구름 이제 우리는 우리의 유산을 구름 트렌드로 바꿀 수 있기를 희망합니다

최대한 빨리 Google PSO에서 큰 도움이 필요합니다 [LAUGHS] 그래서 PC에서 모바일로의 [INAUDIBLE] 전환으로 인해 – PC 게임 측에 너무 많은 유산이있다 그리고 작년에 [INAUDIBLE] 클라우드 용 게임 [INAUDIBLE] 또한 Google Analytics는 모바일 용으로 [INAUDIBLE]입니다

우리는 모든 것을 가능한 한 빨리 바꾸고 있습니까? 우리 플랫폼을 바꿀 수 있다고 생각합니다 Google GCP와 같은 공개 클라우드에 우리가 가지고있는 데이터와 모든 것을 결합 할 수 있다면, 우리가 매우 강하게 AI와 기계 학습 회사가 될 수 있다고 생각합니다 어쩌면 될 수 있습니다 그래서 Netmarble은 올해 초 NARC를 시작했습니다 이 데이터로 새로운 비즈니스, 새로운 AI 비즈니스 개발 그리고 우리의 운영 노하우

NARC는 여기에 마약 관련 문제가 있다는 것을 알고 있습니다 하지만 나는이 이름을 사용하지 않는다고 말했다 그러나 어쨌든, 나의 의장은 이것을 사용하기로 결정했습니다 NARC는 Netmarble AI 혁명 센터를 의미합니다 그리고 혁명은 마케팅의 핵심 단어입니다

그리고 우리는 이영영을 고용합니다 17 년 – IBM TJ Watson Research Center에서 일합니다 그리고 그는 아마 왓슨의 조상 중 하나입니다 그리고 모두는 어쨌든 왓슨을 싫어합니다 이승영 대표는 현재 NARC의 책임자이며, 동시에 Netmarble의 CTO입니다

그는 기술 측면에서 모든 변화를 주도하고 있습니다 우리 산업은 [단순하다] 매우 간단합니다 AI 기술을 사용하여 게임 개발을해야합니다 그리고 우리는 더 나은 것을 만들고 싶습니다 AI 솔루션으로 작동합니다

예 이 [미숙 한] 우리는 모든 것을 할 수 있다고 말했다 우리는 모든 것을 할 것입니다 하지만 그래, 우리는 이미 약간의 진전을 이루고있다 강화 학습

모두들 그걸 시도했지만 우리가 시도 했어 우리의 균형 문제를 해결하기위한 학습 강화 또한 AI 기술을 사용하는 게임 시뮬레이터를 만들고 있습니다 동시에 우리는 큰 데이터 분석을하고 있습니다 BigQuery를 사용하는 Google Cloud 플랫폼 GCP 그리고 그들은 우리의 행동 데이터를 사용하고, 그들은 우리의 프로파일 데이터 인 QA 자동화 시스템을 사용하십시오

우리가 지금하고있는 일의 종류 나는이 편이 아니라이 편을 담당한다 네 내가 말했듯이, 나는 게임 서비스 AI를 담당하고있다 게임 운영과 관련된 AI, 모든 종류의 활동, 게임 외부가 아니야

예를 들어, 마케팅 및 운영 그리고 또한, 큰 데이터 분석 네, 그래서 저는 우리를 단순한 전략으로 만듭니다 – 그냥 ABC 내부의 모든 사람들에게 실용적인 통찰력을 제공하고 싶습니다 Netmarble 나는 모른다

많은 게임 스튜디오는 예측을 시도합니다 맞습니다 변동 예측, LTV 예측, 많은 것들 그러나 실제로 그러한 의미가 있습니다 내 질문이다

수년 동안, 우리는 서구 기업을 복사하려했습니다 서구의 회사는 우리의 능력보다 높은 것처럼 보입니다 그래서 우리는 모든 것을 따라 잡으려고했습니다 그래서 우리는 휘젓다을 예측하려고합니다 우리는 LTV를 예측하려고했습니다

그리고 우리의 결론은 그렇습니다, 우리는 그렇게 할 수 있습니다, 그렇다면 무엇을 할 수 있습니까? 따라서 돈을 더 벌거나 더 나은 서비스를 제공하기 위해 할 수있는 일 질문이 아닙니다 요즘 우리 팀은 집중하고 있습니다 실용적인 통찰력을 만드는 데 Netmarble 내부의 모든 사람들에게 실행 가능한 통찰력을 제공하십시오 예를 들어, 간단한 손실 예측을 제공합니다 마케팅 담당자에게 리포터 데이터를 기반으로 모든 것을 결정할 수 있습니다

마케터는 더 많은 돈을 지출하거나 지출을 중단하거나 변화시킬 것입니다 마케팅 채널 그리고 매일, 그들은 모든 것을 최적화하려고 노력하고 있습니다 데이터를 기반으로합니다 그런 종류의 일, 나는 그것을 정말로하고 싶다

비즈니스에 미치는 영향 인공 지능과 기계 학습은 매우, 유행 기술, 많은 문제를 해결할 수 있습니다 그러나 나를 위해, 기술적 인 문제를 해결하는 것은 매력적이지 않습니다 우리는 정말로 간단한 문제를 해결하기를 원합니다 하지만 그것은 큰 비즈니스 영향을 미칩니다

예를 들어 광고 사기 탐지 시스템을 개발합니다 그것은 퍼포먼스 마케팅을위한 엄청난 돈을 절약 할 것입니다 그리고 그런 종류의 일은 정말로하고 싶습니다 동시에, Netmarble은 모바일 게임 회사입니다 이것은 우리가 아주 좋은 개발자가 없다는 것을 의미합니다

인공 지능 또는 기계 학습 이상의 강력한 개발 타워 이 문제를 해결하기 위해 Google은 공동 작업을 실제로 시도했습니다 다른 대기업과 예를 들어, 우리는 아주 좋은 관계가 있습니다 Google 클라우드 – PSO 팀과 PSO 팀은 우리에게 많은 통찰력을 제공했습니다 새로운 시스템을 개발하고 두통 문제를 해결할 수 있습니다

그들은 매우 영리하며, 우리는 그들의 능력을 따라 잡고 있습니다 그러나 한 가지 더, 우리는 올바른 문제를 해결하려고 노력했습니다 올바른 문제는 우리가 실제로 해결하고자하는 것입니다 그리고 그것은 인간이 풀 수 있지만 때로는 필요합니다 많은 사람들이 있고 많은 시간이 필요합니다

그런 종류의 문제는 완벽하고 완벽합니다 기계 학습을 사용하기 때문에 우리는 믿습니다 그리고 우리는 이미 여러 경우를 시도했다 자신을 [무관계] 도표로 만드십시오 마케팅을 위해 LTV 예측, ROAS 예측 및 광고 사기 탐지 시스템

그리고 제가 말했듯이 우리는 LTV 예측을 개발했습니다 하지만 조금도 사용하지 않으므로 아무도 사용하지 않습니다 대중 마케팅에 사용하기가 어렵습니다 그리고 한국에서는 LTV가 그다지 중요하지 않습니다 그리고 그것은 동남 아시아와 어쩌면 일본에서도 마찬가지입니다

그래서 우리는 ROAS 예측을 개발했습니다 그리고 마케팅 예산을 회수 할 수 있습니다 월간 기준 우리는 마케팅 예산을 be [? 액체?] 2 개월 또는 3 개월 후 또는 4 몇 개월 뒤 그리고 나서, 우리는이 시스템을 개발했습니다

그리고 [무관심]은 매우 높습니다 현재, 그게 어떻게 내가 말할 수 있니? 어쩌면 플러스 또는 마이너스 15 일 정말 정확합니다

그리고 우리 사장님은 항상 더 많은 돈을 쓰고 자합니다 손실 예측을 기반으로합니다 또한 광고 사기 탐지 시스템을 개발했습니다 그것은 많은 마케터들의 두통입니다 그리고 그것은 정말로, 정말로

수많은 솔루션이 있습니다 예를 들어, [INAUDIBLE]도 그런 종류의 것을 제공합니다 그리고 많은 [? 동향?] 회사 광고 사기를 탐지 할 수있는 해결책을 제공하십시오

문제는 우리가 회사 외부에 의존하기를 원하지 않는다는 것입니다 그리고 우리는 탐지 할 데이터가 충분하다고 믿습니다 자신에 의한 광고 사기 그리고 우리는 노력했고 우리는 커다란 성공을 거두고 있습니다 게임 서비스 운영을 위해, 우리는 churn report, 다른 모든 사람들처럼

그러나 우리는 기계 학습을 사용하여 떠나는 것 또는 머무르는 것의 차이 당신은 그들이 가지고있는 차이점이 무엇인지 알게됩니다 누군가가 [[? PVP?] 손실 그리고 누군가가 5 ~ 6 번 연주한다면 더 오래 머물러 있습니다 하루

우리가 데이터에서 추출하고자하는 그런 통찰력 그리고 매일 아침, 우리 작전 팀원들은 보고서를받습니다 어떤 추세가 진행되고 있으며 어떤 종류의 주요한 차이점이 있는가? 버추기 사이에 [INAUDIBLE]와 [INAUDIBLE]에 머물러 있습니다 또한 특별 해산 예측 보고서를 개발했습니다 우리는 행동에 대한 단서를 제공하는 데 집중하고 있습니다

예를 들어, 여기 누군가가 있습니다 그들의 확률은 아마도 90 %를 넘을 것이다 그건 우리가 아무 것도 할 수 없다는 것을 의미합니다 그는 나가서 다른 칭호를 즐긴다 휘젓다 예측에서 여기 누군가가 아마도 해지율이 60 % 또는 80 % 일 것입니다

그러나 우리의 두 번째 날 보유는 50 % 이상입니다 그래서 60 %가 더 높거나 높지 않습니까? 일상적인 작업을 이해하는 것은 정말 어렵습니다 가이드 그래서 우리는 단지 간단한 지침을 제공합니다 이 사람에 집중하고,이 사람을 잡을 수 있다면 어쩌면 내일 후, 당신은 거대한 유지를 얻을 수 있습니다

[? 3?] [? 개월 ?] 그런 종류의보고, 우리는 매일 배달합니다 또한 게임 내 이상 탐지 기능을 개발합니다 그리고 그것은 우리의 협력 프로젝트입니다 Google PSO 팀과 오늘, 우리의 타이틀 서비스 기간 더 길고 길다

즉 콘텐츠는 매우 복잡합니다 버그없는 상태를 유지하는 것은 정말로 어렵습니다 항상 버그가있을 것입니다 즉, 항상 버그가 있음을 의미합니다 [INAUDIBLE]

그 종류의 사용자를 가능한 한 빨리 찾는 방법은 무엇입니까? 그것은 가장 중요한 문제 중 하나입니다 길고 길게 길게 봉사하십시오 그래서 우리는 테스트 시스템을 개발했습니다 그래서 나는 3 가지 사례를 깊이 잠수하고 싶습니다

하나는 레스 마라 보고서입니다 레스 마라 알고 있니? 그거 알아? 네, 일본 출신입니까? 관객 : [INAUDIBLE] 연사 : 네 Resemara는 매우 흥미로운 방법입니다 게임 콘텐츠를 즐길 수 있습니다 Resemara는 재설정, 결합, 마라톤입니다

일본과 아시아에서는 일반적으로 무료입니다 [INAUDIBLE] 비즈니스 모델을 채택한 게임을 즐기십시오 [INAUDIBLE]은 어떻게 말 할 수 있습니까? [INAUDIBLE] 네, [INAUDIBLE]에 익숙하십니까 ?? 자물쇠 상자 같은 거지? 그리고 일본에서는 마케팅 가격이 정말로 높습니다 즉, 우리는 사용자를 적어도 하루에 1 시간 이상 붙잡고 싶습니다 즉, 우리는 아주 좋은 인상을 주어야했습니다

시작시 그래서 우리는 특별한 [INAUDIBLE] 상자 만 준비했습니다 신규 사용자 그것은 매우 특별한 카드와 같은 것을 포함합니다, 또는 아주 특별한 특성, 또는 아주 특별한 선물 그것을 얻으려면 사용자 재설정, 즉 앱을 삭제하고 앱을 2 개 이상 계속 설치하십시오

또는 멈추지 않고 3 일 대개 200 회 또는 300 회, 사용자 실제로 그들이 원하는 것을 얻을 수 있습니다 얼마 동안은 1,000 회 또는 2000 회 이상입니다 그것은 매우 어리석은 보입니다 그러나 어쨌든, 그들은 그것을 시도했습니다

그리고 그것은 또한 주요 방법 중 하나입니다 일본과 동남아시아에서 게임을 즐길 수 있습니다 문제는 모든 KPI를 신뢰할 수 없다는 것입니다 회원 유지율은 매우 낮습니다 Resemara 때문입니다

아무도 그것을 모른다 그리고 첫 번째로, 가입 선물이 충분합니다 아무도 그것을 모른다 그러나 레스 마리처럼 뭔가가 너무 높습니다 그 말은 우리가 선물을 너무 많이주는 것을 의미합니까? 사인?] [? 사용자

?]하지만 Resemara가 너무 적 으면, 그것은 충분히 좋지 않다는 것을 의미합니다 얼마나 많은 계정 전환이 발생 했습니까? 그것은 또한 매우 중요한 것입니다 이 제목과 같은 것이 아주 좋습니다 이 제목은 우리에게 매우 특별한 가입 선물을줍니다 그리고 나서 그들은 레스 마라 (Resemara)를합니다

중국에는 이런 상황에 처한 사람들이 있습니다 그들은 Resemara [? 펌프?] 그들 자신에게 특별한 계좌 그런 다음 많은 계정을 생성하고이를 판매합니다 일본의 실제 선수 그리고 그런 종류의 일은 게임의 균형을 깨뜨릴 수 있습니다

그래서 매우 위험한 것입니다 그래서 Google은 많은 Google Cloud를 사용하여 Resemara보고 시스템을 만듭니다 플랫폼 서비스 우리는 기계 학습이나 특별한 것을 사용하지 않고 있습니다 하지만 어쨌든 모든 사용자 로컬 데이터를 분석 할 수 있습니다

BigQuery로 인해 실시간으로 강력한 Google Cloud 플랫폼입니다 마지막으로 Resemara없이 신뢰할 수있는 KPI를 생성 할 수 있습니다 이건 매우 중요합니다 지난 주에 우리가 한 가지를 개발했습니다 즉, 나는 개발자들에게 "King 파이터 알 스타 "발사

광고 사기 시스템 광고 사기가 나를 두통으로 여긴다는 것을 설명하기 위해, 방금 Google을 검색하여 아주 간단한 기사를 찾았습니다 그것에 대해 모바일 광고 지출은 올해 또 20 % 증가하고있다 그리고 20 % [미숙품]

모든 광고 제목에는 광고 사기가 있습니다 즉, 불법 다운로드 또는 무언가를 의미합니다 클릭 [? 손바닥?] 또는 [INAUDIBLE] ,, 그냥 설치하거나 훔치지 않고 돈을 벌기 위해 다른 사람들로부터 설치 그런 종류의 일이 몇 번이고 반복되고 있습니다 이것은 큰 문제를 만든다

그것은 그들이 우리의 직함을 즐기지 않을 것임을 의미합니다 우리가 돈을 쓰고 그들의 보유가 내려갈거야 문제는 광고 사기, 실제 보존없이 조금 더 높을 것입니다 그것은 우리가 더 큰 성공을 위해 돈을 써야한다는 것을 의미합니다 하지만 광고 사기로 인해 어떤 것을 결정할 수는 없습니다

오른쪽처럼 – 우리는 올바른 결정을 내릴 수 없습니다 그래서 우리는 광고 사기 탐지 시스템을 개발했습니다 그리고 나는 그것을 어떻게 발견하는지 설명 할 것입니다 첫째, 우리는 코호트를 만듭니다 그 다음 코호트 특정 변수를 만듭니다

그리고 우리는 모든 변수에 의해 정상 범위를 계산합니다 Google은 [부적절한] 광고 채널, 예를 들어 페이스 북과 같은 것입니다 Facebook은 광고 사기와 같은 것을 만들기가 정말로 어렵습니다 우리가 지금 수집하고있는 그러한 종류의 데이터와 신뢰할 수없는 [? 함정 ?] 이런 종류의 코호트는 조금 이상합니다

모두들 이것처럼 보입니다,하지만 여기, [미숙 한]이 것 우리는 일부 보고서를 마케팅 담당자에게 제공합니다 그리고 마케터 수표, 심층 다이브, 그리고 이것을 찾으십시오 [INAUDIBLE]와 같은 것입니다 네, 이것은 다이어그램입니다

재미있는 점은 이것도 매우 간단한 트릭입니다 우리에게서 돈을 얻기 위해서, 뭔가 [INAUDIBLE]을 클릭하십시오 그런 종류의 일은 여전히 ​​가능합니다 그냥 – 그래서 우리는 하나 더 개발 [? 전리품 ?] 다른 사람들과 비교해 보면, 또한 간단한 규칙을 확인하십시오

예를 들어, 같은 시간에 로그인하기 만하면, 같은 시간에 그냥 로그 아웃하면됩니다 같은 시간에 [INAUDIBLE] 해보십시오 간단한 클릭 봇 같은 종류의 간단한 규칙으로 찾을 수 있습니다 마지막은 게임 내 이상 탐지입니다 예? 모든 것이 있습니다

이것은 인간이 머리 글꼴에 누워 있습니다 재밌 네요 그러나 그것은 화가 났던 것의 표현입니다 어떤 버그, 또는 [INAUDIBLE] 중 일부 때문에 또는 일부 작동 오류 한국에서는, 사용자는 그것에 대해 화를냅니다

이런 종류의 기사처럼 [KOREAN] 그것은 거짓말을 의미합니다 그리고 그런 종류의 일은 우리에게는 매우 위험한 일입니다 왜냐하면 그것은 우리 타이틀에 나쁜 브랜딩을하기 때문입니다

그리고 나서, 이런 종류의 일을 막기 위해, 우리는 버그 또는 [INAUDIBLE] 최대한 빨리 그래서 우리는 규칙 기반 엔진을 개발했습니다 문제는 매달 새로운 콘텐츠를 제공한다는 것입니다 즉, 매달 새로운 규칙을 준비해야한다는 의미입니다 버그 또는 [INAUDIBLE]을 (를) 탐지합니다

그것은 너무 복잡하기 때문에 거의 불가능합니다 아무도이 시스템을 신경 쓰지 않습니다 그들은 단지 새로운 콘텐츠를 개발하는 데 주력하고자합니다 그들은 새로운 디자인 규칙을 만들고 싶지 않습니다 따라서 규칙 기반 엔진은 우리의 문제를 해결할 수 없습니다

그래서 우리는 LSTM AutoEncoder를 세우고 있습니다 이 문제를 해결하는 네트워크 그리고 뭐? 관객 : [INAUDIBLE] 그것이 가장 효과적 이었기 때문에 [부적절한] 순서에 따라 사용자 행동을 분석하기위한 그런 다음 [? onliner ?] 우리가 개발 한 이러한 복잡한 활동들 우리는 모든 종류의 디지털 서비스를 사용합니다

그리고 우리는 젠킨스를 사용하여 그것을 통제합니다 그리고 우리는 일종의 세그먼트 접근 방식을 사용합니다 [부적절한] EDA 그걸 어떻게 관리할까요? 비정상적으로 발견 된 결과를보고합니다 매 시간마다 조작부에

그리고 운전자의 사람들은 그 상황에서 게임을 확인합니다 그리고 나서 버그 같은 것이 있다면, 개발자에게보고합니다 개발자가이를 수정하면 우리는 [? 금지?] 매 시간마다 [INAUDIBLE] 버그 이것이 바로 우리의 현재 비전입니다 그래서 요약 – 나는 이것을 다시 시험하고 싶지 않습니다

그래 Netmarble은 기계를 활용 해 왔습니다 많은 사람들이 필요한 지역을 위해 하나씩 학습하기 작업하고 많은 시간을 필요로합니다 그리고 일부 문제는 큰 비즈니스 영향을 미칩니다 앞으로는 할 일이 많이 있지만 그래

Google Cloud 및 PSO와의 협력을 믿습니다 팀, 우리는 가능한 한 빨리 많은 문제를 해결할 수 있습니다 우리는 계속 그것을 시도 할 것입니다 나는 내년에 우리가 더 많은 통찰력을 제공 할 수 있다고 믿습니다 모두에게 그리고 그 때, 나는 뭔가를 고용 할 것이라고 생각한다

영어 말하기, 영어 원어민 나를 대신해서 나를 대신하여 연설을해야합니다 고마워 고맙습니다 [박수 갈채] 그리고 우리는 어떤 질의 응답도 준비하지 않습니다 하지만 어쨌든,이 세 남자 그 사람들이 똑같은 티셔츠를 입고 있습니다

실제 개발자입니다 나는 이런 종류의 결과를 내기 위해 그들을 밀고있다 그리고 그들은 그들이 어떤 종류의 제품을 만들 었는지 알 수 있습니다 즉, 모든 종류의 질문을 할 수 있습니다 예를 들어 왜 [? LTV,?] 그리고 만약 그렇다면 정말 도움이되는지 아닌지

그런 종류의 질문, 당신은 나를 위해서가 아니라 그들을 구할 수 있습니다 고마워 [음악 재생]

Keynote (Google I/O ’18)

좋은 아침입니다 구글 CEO 순다르 피차이 구글 개발자 연례 회의에 오신 여러분을 환영합니다 날씨가 좋네요 작년보다 좀 더 따뜻한 거 같아요 모두들 즐거운 시간 보내고 계신가요 이 자리에 와 주셔서 감사합니다 오늘 약 칠천명 정도가 와 주신 것 같은데요 여기 와 주신 분들 뿐만 아니라 전세계에서 라이브 스트리밍으로 보고 계신 분들도 있습니다 모든 분들에게 감사 드립니다 오늘 많은 얘기를 나눌 거예요 시작하기 전에 아주 중요한 사안을 먼저 해결하고 싶네요 작년 말 즈음에 제 눈길을 끈것이 있었는데 우리 주력 상품 중 하나에 중대한 버그가 있다는 것이었죠 뭐였냐면 버거 이모지에 있는 치즈의 순서가 잘못 된것이었습니다 버그를 고치느라 고생 좀 했어요 사람들이 치즈가 어디 있는지에 대해 그렇게 많이 신경 쓰는지 몰랐어요 그래서 수정했습니다 애초에 제가 채식주의자라는 게 좀 아이러니하네요 어째든 수정이 완료되었습니다 이번엔 치즈가 올바른 곳에 자리잡았기를 바랍니다 버거 이모지를 수정하다 보니 이 이모지도 거슬리더군요 왜 거품이 맥주 위에 있는지에 대해 직원들이 한 설명은 언급하고 싶지도 않네요 이제 물리법칙에 맞게 수정해두었습니다 다 잘 수정되었으니까 본론으로 들어가볼까요? 작년 개발자 회의 이후로 생긴 많은 발전들에 대해 이야기 해보죠 많은 부분에서 특별한 한 해였다는 것을 모두 동의하실 거라고 생각합니다 여러분도 느끼셨을 거라 믿습니다 우리는 지금 컴퓨팅에 있어서 중요한 변곡점에 서 있습니다 기술을 진보시키는 건 흥미진진한 일이죠 그에 따른 우리의 책임에 대해서도 많은 생각을 해 봤습니다 기술에 대한 기대는 어떤 세상에서 사느냐에 따라 혹은 어떤 기회가 주어졌느냐에 따라 굉장히 달라집니다 휴대폰 없이 성장한 저같은 사람은 분명히 기억하고 있습니다 기술에 대한 접근성이 우리의 삶을 어떻게 바꿀 수 있는지를요 우리는 세계 각지에서 일을 하면서 이를 목격할 수 있습니다 여러분은 스마트폰을 처음 접하는 사람을 보면서 알 수 있을 겁니다 그리고 우리가 보는 디지털 기술에 대한 큰 수요를 통해 느낄 수 있습니다 그게 바로 우리가 디지털 기술을 세계 각지로 보급하는데 집중하는 이유입니다 지금까지 우리는 2,500만명을 훈련시켰고 향후 5년 안에 그 숫자가 6,000만명 이상이 될 것으로 기대하고 있습니다 기술이 긍정적인 힘을 가진 것은 분명합니다 그러나 기술 혁신이 가져올 수 있는 결과에 대해 우리가 놀라기만 할 수는 없다는 것 역시 분명합니다 기술의 진보가 우리의 삶에서 수행할 역할에 대한 매우 실제적이고 중요한 질문이 있습니다 우리가 가야할 길에 대해 매우 조심스럽고 신중한 접근이 필요하다는 것을 잘 알고 있습니다 그 권리를 얻은 데 대한 깊은 책임감 역시 느끼고 있습니다 주요 과제들에 대한 우리의 신념이 바로 이것입니다 정보를 좀 더 사회에 유용하게, 접근성 있게 그리고 유익하게 만드는 것입니다 하나의 기업체로서 영원한 과제를 가진다는 것이 행운이라고 생각합니다 처음 시작했을 때만큼이나 오늘날과도 이어져 있는 느낌이거든요 우리의 과제에 접근함에 있어서 새로운 활력소와 함께 한다는 사실에 흥분됩니다 AI에서의 성장 덕분이죠 AI는 우리에게 새로운 길을 제시해 줬습니다 전세계 사용자들의 문제를 해결 하는데 있어서요 작년 개발자 회의에서 구글 AI를 발표했습니다 우리 팀이 열심히 노력한 결과였죠 AI의 편리함을 모두와 나누기 위해서 말입니다 저희는 전세계적으로 보급하고 싶기 때문에 세계 곳곳에 AI 센터를 만들었습니다 AI는 앞으로도 많은 분야에 영향을 주게 될 겁니다 오늘 그 예시를 몇 개 보여드리겠습니다 AI가 변형시킬 중요한 분야 중 하나가 건강 관리 분야입니다 작년에 당뇨병성 망막증과 관련한 작업을 발표했습니다 이것이 실명의 주요 원인입니다 구글은 의사의 더 빠른 진단 돕기 위해 딥 러닝 기술을 적용했습니다 그 때부터 계속 현장 시험을 해왔습니다 인도의 아라빈드 병원과 산카라 병원에서 이루어졌죠 현장 시험 결과는 매우 좋았습니다 전문의가 드문 지역에서 전문적인 진단을 내릴 수 있게 해 줬습니다 같은 망막 스캔을 봐도 사람이 찾아낼 수 없는 것들을 AI는 찾아낼 수 있다는 것을 알 수 있었습니다 같은 홍채 인식을 통해서 AI는 더 많은 정보들을 얻을 수 있었습니다 이를 통해 5년 내에 심장마비나 뇌졸중 같은 유해 심혈관 관련 질병의 발병을 예상할 수 있었습니다 제가 흥미롭게 생각한 점은 의사가 홍채 검사로 발견할 수 있는 것보다 머신 러닝을 통해 발견할 수 있는 것이 더 많다는 것입니다 이 기술은 심혈관계 질환을 수술 없이 발견하는 데 초석이 될 수 있습니다 현재도 진행중이며 최근 연구 결과를 발표했습니다 또한 협력사들과 함께 이를 현장에 적용시키려 작업하고 있습니다 AI가 도울 수 있는 또 다른 분야는 의사를 도와서 질병을 예측하는 것입니다 의사들은 다양하고 많은 어려움에 직면하고 있습니다 그런 의사들을 위해서 예고를 해 주는 거죠 24시간에서 48시간 이내에 환자가 매우 아프게 될 것 같다 이런 예고는 중대한 차이를 가져올 수 있습니다 그래서 머신 러닝 시스템으로 작업을 진행했습니다 협력 업체들과 함께 일했습니다 익명의 의료 기록들을 이용했습니다 그리고 각 환자별로 십만개가 넘는 정보를 분석하면 어떤 의사도 혼자서 분석할 수 없는 양이죠 AI가 양적으로 재입원의 가능성을 추측할 수 있다는 것을 알아 냈습니다 기존 방식보다 24시간에서 48시간 빠르게요 의사에게 행동할 시간을 좀 더 많이 줄 수 있습니다 이와 관련한 자료를 오늘 오후경에 게재할 예정입니다 우리와 함께 일할 병원이나 의료기관을 찾고 있습니다 AI가 도울 수 있는 다른 분야는 접근성 분야입니다 일상적인 사용 사례를 훨씬 쉽게 만들 수 있습니다 흔한 사용사례를 들어 볼게요 밤에 집에 오면 TV를 켜잖아요 종종 두 명 혹은 그 이상의 사람들이 서로에게 열정적으로 대화를 하는 화면을 보실 겁니다 잘 들리지 않는 부분을 들으려고 자동 생성 자막에 의존해서 무슨 말을 하는지 본다고 상상해보세요 아마 이런 장면을 보게 될 겁니다 보시다시피 알아 보기가 힘들죠 무슨 말을 하는 지 알기 어렵습니다 그래서 '루킹투리슨'이라 불리는 머신 러닝 기술이 있습니다 청각 신호만을 알아듣는 것이 아니라 시각 신호와 청각 신호를 결합하여 두 음성을 명확히 구분해 줍니다 어떻게 작동하는 지 보실까요? 유튜브 영상이라고 생각해보세요 그는 대니 에인지 수준은 아닙니다 그렇지만 콜란젤로보다는 낫죠 그러니까 그는 알아들을 수 있습니다 고의로 져도 괜찮다고 말한 겁니까? 지금 고의로 지는 것이 괜찮다고 말했을 뿐만 아니라 팬들한테 다 알려준 거죠? 이래도 괜찮다고 당신이 괜찮다고 했잖아요! 더 이상 말 할것도 없네요 우리는 말 할게 많이 있죠 중요한 일상적인 사용사례에 어떻게 기술을 접목하여 훨씬 더 편리하게 만들 수 있는지 보셨습니다 기술의 위대한 점은 끊임없이 발전한다는 것입니다 사실 머신 러닝은 200년 전 기술인 모스부호에도 적용시킬 수 있습니다 그리고 누군가의 삶의 질에 영향을 줄 수 있죠 한 번 보실까요? 안녕하세요 저는 타냐입니다 이것이 제 목소리 입니다 저는 머리 근처에 고정되어 있는 스위치로 점과 대시를 클릭해서 모스부호를 사용합니다 제가 어릴때에는 의사소통단어판을 사용했습니다 단어를 가리키기 위해 머리에 달린 막대를 사용해야만 했습니다 굉장히 재미있었습니다 진심으로요 모스부호가 처음 제 삶에 들어왔을 때 순수한 해방과 자유를 느낄 수 있었습니다 이따 봐요 사랑해요 아마 그게 제가 스카이 다이빙을 매우 좋아하는 이유인 것 같습니다 같은 해방감과 자유를 느끼거든요 스카이 다이빙을 통해서 제 하나뿐인 사랑인 켄을 만났습니다 그 역시 저와 사랑에 빠졌죠 정말 굉장히 힘든 일이었습니다 모스부호를 시험해 보기 위해 모스부호 장비를 찾는 건 힘들었어요 그래서 직접 만들어야만 했습니다 켄의 도움으로 제 목소리를 가질 수 있었습니다 또한 제 일상의 독립성도 향상 되었죠 하지만 대부분의 사람들 곁엔 켄과 같이 도와주는 사람이 없죠 그래서 G보드 팀과 협력하고 싶습니다 모스부호를 사용하는 자유를 만끽하길 희망하는 사람들을 도와주기 위해서요 G보드는 구글 키보드입니다 G보드에서 일하면서 알게 된 건 전세계적으로 그러니까 수천만명의 사람들이 살면서 본인들의 언어로 된 키보드를 가지지 못 했다는 사실입니다 구글은 타냐와 함께 모스부호를 지원하는 G보드를 만들었습니다 이것은 일종의 입력 양식입니다 모스부호를 입력하면 추측과 제안을 통해 문자가 출력됩니다 좋은 머신 러닝 예시라고 생각합니다 머신 러닝을 이용해서 실제로 누군가를 도와줄 수 있습니다 인공 지능이 없는 평범한 키보드는 할 수 없는 일이죠 이 여정을 계속할 수 있어서 매우 행복합니다 아주 많은 사람들이 이로 인해 혜택받을 거예요 그게 저를 무한히 전율시킵니다 고마워요 타냐 다른 사람들이 그들의 목소리를 찾게 당신의 목소리를 사용해줘서 매우 인상적인 이야기입니다 타냐와 켄을 이 자리에 모실 수 있어서 매우 영광입니다 타냐와 켄은 실제로 개발자로서 프로젝트에 기여했습니다 G보드에 포함된 실제 예측 제안의 힘을 모스부호의 문맥에서 사용 하기 위해 직접 구글 팀과 함께 개발에 참여했습니다 모스부호 기능이 포함된 G보드의 베타 버전이 오늘 오후경 이용가능 하다는 사실에 정말 기쁩니다 AI와 함께 제품을 재창조할 수 있어서 너무 좋습니다 G보드가 훌룡한 예시죠 매일매일 80억개가 넘는 자동 완성을 우리가 사용자에 제공하고 사용자는 그를 선택합니다 우리 주력 상품 중 하나를 AI를 이용해서 재설계한 또 다른 예시는 G메일입니다 G메일이 새롭고 신선한 외관으로 최근에 바뀌었잖아요? 최근에 이루어진 재설계입니다 여러분이 만족하시면서 쓰시고 계신다면 좋겠네요 G메일의 또 다른 기능을 보여드리겠습니다 스마트 작성이라고 부릅니다 이름에서 알 수 있듯이 머신 러닝을 사용해서 여러분이 타자를 칠 때 문구를 제안해주는 거죠 여러분이 할 일은 탭을 누르고 자동 완성을 하는 것 뿐입니다 화요일에 타코 먹기 자클린 안녕 못 본 지 좀 됐네 잘 지내고 있지? 조만간 만나서 타코 먹는 거 어때? 니가 나쵸랑 살사소스 가져오면 내가 과카몰리 만들게 이 메일에서 제목이 화요일에 타코 먹기라는 것을 인지하고 칩, 살사 소스, 과카몰리를 제안하고 있고요 주소같은 일반적인 것들도 자동으로 처리합니다 그래서 여러분이 걱정할 필요가 없죠 뭐라고 쓰고 싶은지에만 집중하면 됩니다 저는 이 기능을 즐겨 씁니다 이 기능으로 회사에 많은 메일을 보냈어요 회사가 뭐라고 생각할 지는 모르겠지만요 굉장히 좋았습니다 이번 달 내로 스마트 작성을 출시할 예정입니다 여러분 모두 좋아하시기를 바랍니다 다음 제품은 개발 단계부터 AI를 활용해서 만든 서비스인데요 바로 구글 포토입니다 아주 잘 작동되고 있고 점점 더 나아지고 있습니다 사진 중 하나를 클릭하는 것을 사진 뷰어 경험이라고 부릅니다 한 번에 한 장의 사진만을 보는 거죠 사진 서비스 규모에 대한 부연설명을 드리자면 매일매일 50억 장이 넘는 사진이 사용자들에 의해 클릭됩니다 매일매일이요 우리는 AI가 그런 상황에서 쓰이기를 바랐습니다 새로운 기능인 행동 제안입니다 사소한 행동들을 제안해주는 거죠 사용자가 행동하는 맥락 안에서요 예를 들어보겠습니다 결혼식에 다녀 왔다고 가정하죠 찍은 사진들을 살펴보겠죠 구글포토가 사진 안에 당신의 친구인 리사가 있다는 것을 인식하고 그러면 리사와 함께 찍은 사진 세 장을 공유하지 않겠느냐고 제안하는 거죠 한 번의 클릭으로 그 사진들을 리사에게 보낼 수 있습니다 모두들 자기 휴대폰으로 사진을 찍으려고 하잖아요 그걸 개선할 수 있는 거죠 예를 들어보겠습니다 같은 결혼식입니다 사진의 노출이 부족하면 우리 AI가 제안하는 거죠 지금 밝기를 조절하라구요 탭 한 번만 해주면 저절로 적절하게 밝기를 조절해 줍니다 혹은 여러분이 나중에 다시 보려고 서류를 찍어 두었다면 구글 포토가 이를 인식하고 서류를 PDF파일로 변환할 수 있습니다 그래서 나중에

나중에 쓰기 훨씬 편하게요 이런 간단한 일들을 즐겁게 만들고 싶었습니다 한편으로는 AI가 예상치 못한 상황을 선사할 수도 있습니다 예를 들면 아이를 귀엽게 찍은 사진을 가지고 있습니다 더 좋은 사진으로 만들어 줄 수 있어요 배경색을 없애고 아이의 색을 튀게 만들어 줍니다 아이를 한 층 더 귀엽게 해 주죠 아니면 아주 특별한 순간 있잖아요 흑백 사진으로 저장된 순간이요 어머니나 할머니의 사진일 수도 있죠 구글포토는 색을 입혀서 그 순간을 재창조 할 수 있습니다 좀 더 현실적이고 특별한 순간으로 만들어 줍니다 이 모든 구글 포토의 새 기능은 몇 달 이내에 출시될 예정입니다 이런 작업이 가능한 이유는 한동안 우리가 연산형 아키텍처의 규모에 많은 투자를 해왔기 때문입니다 작년에 텐서 프로세싱 유닛에 대해 말했던 것도 같은 이유입니다 특수 목적 머신 러닝 칩들입니다 오늘날 우리가 보고 있는 모든 제품의 개선을 만들어냈죠 이를 클라우드 소비자들에게도 이용 가능하게 만들었습니다 작년 이후로 우리는 열심히 일했습니다 그래서 오늘 차세대 TPU 30을 발표하게 되어 기쁩니다 이 칩들은 너무 빨라서 사상 처음으로 우리 데이터 센터에 액체 냉각 시스템을 도입해야만 했습니다 이 칩을 거대한 포드에 연결해서 각각의 포드들은 작년보다 8배 이상 빨라졌습니다 100 페타플롭스를 가뿐히 넘는 속도죠 덕분에 우리는 더 좋은 모델 더 큰 모델, 더 정확한 모델을 만들 수 있습니다 더 큰 문제들을 해결하는 데 도움을 주기도 하죠 AI를 다루면서 생긴 주요 문제 중 하나는 구글 어시스턴트입니다 우리가 바라는 완벽한 어시스턴트는 자연스럽게 대화할 수 있고 필요할 때 도움을 제공하며 현실의 일을 해결하게 해 주는 것입니다 이것을 더 좋아지게 만드는 작업을 하고 있습니다 어시스턴트가 자연스럽고 편안하게 대화할 수 있기를 원합니다 그러기 위해서는 구글 어시스턴트의 기초부터 시작해야겠죠 바로 음성입니다 오늘날 대부분의 사용자들이 어시스턴트와 상호작용하는 수단이죠 지금 음성은 '홀리'라고 불립니다 진짜 사람이죠 우리 스튜디오에서 몇 달간 머물렀습니다 녹음한 것들을 이어 붙여서 음성을 만들었습니다 하지만 18개월 전에 딥마인드 팀이 찾아낸 돌파구를 발표했죠 웨이브넷입니다 현재 체계와는 다르게 웨이브넷은 좀 더 자연스러운 음성을 만들기 위하여 실제 근본이 되는 로우 오디오를 만들어 냅니다 사람이 말하는 것과 흡사하게요 음의 높이, 속도 심지어는 말사이의 공백까지 따라해서 의미를 전달해 줍니다 그 모든 것을 가능하게 하고 싶었습니다 웨이브넷으로 열심히 작업했습니다 오늘부터 구글 어시스턴트에 6개의 새로운 음성이 추가됩니다 함께 인사 해 볼까요? 좋은 아침입니다 저는 당신의 구글 어시스턴트입니다 쇼어라인 앰피씨어터에 오신 것을 환영합니다 구글 개발자 회의를 즐기시기를 바랍니다 순다르씨에게 마이크를 넘깁니다 우리의 목표는 언젠가 전세계적으로 올바른 강세, 언어, 사투리를 구사하는 겁니다 웨이브넷이 이를 훨씬 쉽게 만들어 줍니다 이 기술을 활용하면서 어떤 놀라운 음성을 가진 분을 스튜디오로 모시면 좋을지 고민했습니다 한 번 보시죠 쿠스쿠스 북아프리카 세몰리나와 듀럼 밀을 빻아서 나온 작은 알갱이 형태의 음식 다정한 눈과 복슬거리는 꼬리에 내 하이쿠를 좋아하는 강아지를 원해 누구나 그렇지 않나? 생일을 맞은 당신의 생일을 축하합니다 생일 축하합니다 존 레전드 자랑하기 싫다고 얘기하겠지만 당신이 들은 것 중 최고의 어시스턴트가 될 겁니다 어디 사는지 말해 줄수 있나요? 각종 기기에서 저를 찾을 수 있습니다 휴대폰, 구글 홈 그리고 제게 행운이 따른다면 당신의 마음에서도요 네, 존 레전드의 음성이 어시스턴트로 나옵니다 존이 여러분이 물을 만한 모든 예상 질문에 답하면서 계속 스튜디오에 있지 않았던건 분명합니다 웨이브넷은 스튜디오에서 보내야 하는 시간을 줄이고 모델이 존의 다양한 목소리를 포착할 수 있게 했습니다 존의 음성은 올해 말에 특정 상황에 맞게 나올 예정입니다 여러분이 이런 대답을 들을 수 있게요 좋은 아침입니다 순다르씨 지금 마운틴 뷰의 하늘은 맑고 기온은 섭씨 18도입니다 오늘은 24도까지 올라갈 것으로 보이고 날씨는 화창할 예정입니다 오전 10시에는 구글 개발자 회의 기조 연설 일정이 있고 그리고 오후 1시에는 마가리타를 마실 예정입니다 좋은 하루 되십시오 오후 1시가 기다려지네요 존의 음성은 올해 하반기에 나올 예정입니다 AI와 함께 이런 진보를 이룰 수 있어서 정말 기쁩니다 구글 어시스턴트에는 더 많은 업그레이드가 있을 겁니다 그에 관해서 좀더 이야기해볼까요? 스콧을 무대 위로 모시겠습니다 헤이 구글 매디한테 전화 해 줘 네, 지금 전화합니다 헤이 구글 식사 4명 예약 해 줘 알겠습니다 헤이 구글 동생한테 전화해 줘 헤이 구글 형한테 전화해 줘 캐롤한테 문자해 줘 날 위해서도 캐롤에게 문자해 줄래? 헤이 구글 누가 나한테 문자했어? – 요 구글 – 컷! 케빈, 정말 좋았는데요 우리가 아직 '요 구글'은 못 만들어서요 '헤이'라고 해야 해요 헤이 구글 헤이 구글! 시아 노래 재생해 줘 헤이 구글 다음 편 재생해 줘 넷플릭스에서 크라운 재생해 줘 채닝 테이텀 나온 영화 전부 재생해 줘 알겠습니다 – 요 구글 – 컷! 잘 하셨는데요 제발 한 번만 '헤이 구글'이라고 해 주시면 안 될까요? 헤이 구글 내 휴대폰 찾아 줘 지금 찾고 있습니다 와! 헤이 구글 헤이 구글 헤이 구글! 요 구글 앞문 잠가 줘 컷! 좋아요 그럼 그냥 요 구글로 가죠 아마 기술자들은 그게 뭐든 업데이트하는 걸 좋아하겠죠 요 그냥 헤이 구글이라고 말하고 구글이 하게 하세요 안녕하세요 무었을 도와 드릴까요? 구글 어시스턴트 개발 총책임자 스콧 허프만 2년 전에 바로 이 연례 회의에서 구글 어시스턴트를 발표했습니다 오늘날 어시스턴트는 5억여개의 기기에서 이용 가능합니다 휴대폰, 스피커, 헤드폰 TV, 시계 그리고 그 외의 기기들을 포함해서요 40개가 넘는 자동차 브랜드의 자동차에서도 가능합니다 커넥티드 홈 디바이스 5천여개에서도 작동합니다 식기세척기부터 초인종까지요 전세계 사람들이 매일 어시스턴트를 쓰고 있습니다 예를 들면 우리는 작년에 인도에서 어시스턴트를 출시했습니다 반응이 정말 엄청났습니다 일일 사용량은 올해 초의 세 배가 됐습니다 올해 말까지 어시스턴트가 30개의 언어를 지원하고 80개국에서 이용 가능해 질 겁니다 대단한 진보를 이룬 거죠 그렇지만 아직 시작에 불과합니다 오늘 여러분에게 알려드릴 소식은 어시스턴트가 좀 더 자연스럽게 대화하고 시각적으로 나아질 중요한 방법입니다 여러분이 좀 더 많은 일을 하고 여유 시간을 가질 수 있도록요 피차이CEO가 말했다시피 이제 구글 어시스턴트에서 새로운 음성들을 선택할 수 있습니다 어시스턴트와 좀 더 자연스럽게 대화하기 위해서 중요한 요소죠 그러나 훌륭한 대화 상대가 되기 위해서 어시스턴트는 대화의 사회적 역동성을 깊게 이해해야만 합니다 예를 들어 보겠습니다 솔직히 말해서 어시스턴트가 내 말을 듣게 하고 싶을 때마다 '헤이 구글'이라고 말하는 건 조금 짜증나지 않나요? 여러분이 유튜브에서 보셨을 수도 있는 이 할머니는 분명히 그렇게 느끼고 계십니다 구구! 헤이 구구! 구구! 헬로우 구구! 헤에이 구구 오케이 구구 – 날씨가 어떨지 궁금하대 – 내일 날씨가 내일 날씨가 플래글러 해변의 내일 날씨는 소나기가 내릴 예정이며 기온은 최고 18도, 최저 13도입니다 어시스턴트가 결국 할머님을 위해서 일하긴 했네요 그렇지만 이렇게 힘들어서는 안 되잖아요 이제는 매번 '헤이 구글'이라고 하지 않아도 됩니다 확인해 보시죠 헤이 구글 워리어스가 이겼어? 네, 워리어스가 118 대 92로 이겼습니다 저번 일요일이었고 상대는 펠리칸스였습니다 좋았어! 다음 게임은 언제야? 워리어스의 다음 게임은 오늘 오후 7시 30분입니다 상대 팀은 펠리칸스입니다 고마워 오늘 밤 경기는 재밌겠어 내가 집에 가면 케빈 듀란트 저지 찾으라고 말해줘 알겠습니다 집에 도착하면 말씀 드리겠습니다 제가 자연스럽게 오고 가는 대화를 했다는 걸 눈치채셨나요? 어시스턴트와 대화하면서 후속 요청마다 '헤이 구글'이라고 반복할 필요가 없었죠 훨씬 더 유용한 건 제 어시스턴트가 어시스턴트에게 말하는 것과 여러분에게 말하는 것을 구분할 수 있다는 겁니다 이것을 지속되는 대화라고 부릅니다 가장 요청이 많이 들어온 기능이었습니다 이 기능은 다음주부터 사용 가능 합니다 경기 시간이 다가왔다고 가정해봅시다 헤이 구글 워리어스 경기 켜 주고 팝콘 기계 시작 해 줘 네 유튜브 TV에서 하는 골든 스테이트 워리어스 게임입니다 팝콘 기계 작동시켰습니다 그리고 거실이랑 주방 불 좀 어둡게 해 줘 알겠습니다 거실과 주방 조명을 낮춥니다 이 두 예시에서 제가 한 번에 여러 가지를 요구했다는 걸 알아차리셨나요? 우리한테는 굉장히 자연스러운 일이죠 하지만 컴퓨터가 이해하기는 어려운 일입니다 이것을 다중 액션이라고 부릅니다 이 기능은 지금부터 어시스턴트에서 사용 가능합니다 여러분이 어쩌면 '이게 어려운가?' '-고' 같이 연결어만 찾으면 되잖아' 라고생각할 수도 있는데요 하지만 언제나 그렇게 간단한 일은 아니죠 이 예시에서 '와'가 포함되어 있지만 두 가지 질문이 아니라 사실 하나의 질문이거든요 워리어스와 펠리칸스 중에 누가 이겼지? 하지만 이 예시는 워리어스와 펠리칸스의 선수 명단은? 방금 전의 예시와 비슷해 보이지만 어시스턴트가 문장을 분해해야만 두 가지 질문을 찾아낼 수 있습니다 언어학에서 대등 구조 축소라고 불리는 현상입니다 -워리어스의 선수 명단은? -펠리칸스의 선수명당은? 다중 액션은 더욱 복잡한 방식도 이해할 수 있습니다 그럼 재미를 위해서 헤이 구글 케빈 듀란트가 드래프트되었을 때 누가 캘리포니아의 주지사였지? 그리고 어떤 팀이 그를 드래프트 해갔지? 2007년 주지사는 아놀드 슈왈츠제네거였습니다 시애틀 슈퍼 소닉스가 케빈 듀란트를 드래프트했습니다 좋습니다 혹시 궁금해하실까봐요 감사합니다 다음 이야기를 해 보죠 우리가 연구한 또 다른 건 가정용 구글 어시스턴트의 대화 기능 향상입니다 작년 가을에 구글 어시스턴트의 가정용을 출시했습니다 가족끼리 하기 좋은 게임이나 활동, 이야기들을 제공해줍니다 우리는 책장을 계속 확장했습니다 가족들은 13만 시간이 넘는 동화를 청취했습니다 지난 두 달만 세어 봐도요 가족들을 위한 일을 계속해서 개선해 나가다 보니 많은 부모님들이 걱정을 했습니다 우리 팀에 있는 자녀를 가진 사람들도 그랬죠 아이들이 너무 오만하고 요구만 하게 된다는 겁니다 그냥 '헤이 구글'이라고 말하고 원하는 걸 시키기만 하면서요 이건 접근하기 쉬운 영역이 아니죠 하지만 우리가 한 걸음 내딛었는데 프리티 플리즈라는 기능입니다 아이를 가진 직원 몇몇이 직접 실험해봤습니다 한 번 보시죠 헤이 구글 (불명확함)에게 말해줘 아빠 '주세요'라고 말해야지 오케이 구글 이야기 하나만 해주세요 '주세요'라고 말해주셔서 감사합니다 프리즈 댄스 재생해주세요 정말 상냥하게 부탁하시네요 이야기 하나만 말해주세요 친절하게 부탁해주셔서 감사합니다 옛날 옛날에 괴짜 바다코끼리가 살았습니다 제 숙제 좀 도와주세요 제발요 – 제발 – 제발요 당신은 정말 예의바르시군요 나도 알아요 보신 것처럼 어시스턴트가 정중함이 더해진 긍정적인 대화를 이해하고 반응하는 거죠 가족들과 아동 발달 전문가와 상의하며 일해왔습니다 프리티 플리즈를 올 해 하반기 이내에 가족용 선택사항으로 만들 예정입니다 어시스턴트를 위한 새로운 목소리들부터 지속되는 대화 다중 액션, 프리티 플리즈까지 AI가 우리가 크게 도약하는데 도움을 주고 있습니다 그래서 모두가 좀 더 자연스럽게 어시스턴트와 대화할 수 있습니다 이제 릴리안을 소개하겠습니다 우리가 하고 있는 재밌는 일들을 알려주실 분입니다 음성와 영상 어시스턴트를 통합한 것과 관련해서요 스콧 감사해요 좋은 아침입니다 구글 어시스턴트 프로덕트 매니지먼트 디렉터 릴리안 링콘 지난 몇 년 동안 어시스턴트는 구두 대화에 집중해왔고 그 결과를 구글에서 보고 계십니다 오늘 새로운 비쥬얼 캔버스를 공개하도록 하겠습니다 화면용 구글 어시스턴트입니다 풍부한 시각 자료들과 단순한 목소리를 결합했습니다 매기를 무대 위로 불렀습니다 라이브 데모 버전을 오가면서 보여드릴 예정이거든요 새로운 스마트 디스플레이의 초기 버전 기억하시나요? 이번 1월에 CES에서 보여드렸습니다 우리는 최고의 소비자 가전 브랜드와 협업을 하고 있습니다 오늘 첫 번째 스마트 디스플레이가 오는 7월에 판매될 예정임을 말씀드리게 되어 기쁩니다 오늘 저는 이 새로운 장비가 여러분의 일상을 더 쉽게 만들어 주는 방법을 보여드리겠습니다 음성의 간결성을 터치 스크린의 한 눈에 알아보기 쉬운 속성과 결합해서 말이죠 라이브 데모 버전을 보실까요? 이 기기는 레노버 스마트 디스플레이입니다 은은한 화면에 구글 포토와 결합되어있습니다 제 아이들 사진이 제게 인사하네요 벨라와 허드슨은 진짜 제 아이들입니다 매일 아침을 시작하는 최고의 방법이죠 기기가 제 목소리에 통제되기 때문에 간단한 명령어만으로 영상이나 실시간 TV를 볼 수 있습니다 집 안에서 다른 일을 하면서 제가 제일 좋아하는 프로그램을 놓치지 않게 해 주는 간단한 방법이죠 헤이 구글 지미 키멜 라이브 보여 줘 알겠습니다 유튜브 TV에서 지미 키멜 라이브를 재생합니다 재밌는 일이 있었어요 제가 실제로 겪은 일인데요 오늘 아침에 딸들을 학교에 태워다 주고 있는데 바로 이렇게요 여러분은 유튜브 TV에서 멋진 프로그램들을 볼 수 있는데요 지역 뉴스나 실시간 스포츠 경기부터 아주 많은 프로그램들이 있습니다 이러한 것을 스마트 디스플레이에서 이용하실 수 있을 겁니다 물론 유튜브의 평범한 컨텐츠들을 즐기고 싶으실 수도 있죠 초보자를 위한 영상이나 음악, 새로나온 시리즈 코브라 카이 같은 독자적인 컨텐츠 같은 것 말이죠 정말 재미 있어서 이번주 부터 보기 시작 했습니다 요리는 음성과 화면의 결합이 정말로 유용하게 쓰이는 또 다른 예죠 닉과 저는 간단한 가정용 요리법을 즐겨 봅니다 헤이 구글 피자 밤 레시피 좀 보여 줘 알겠습니다 레시피들을 불러왔습니다 테이스티의 첫 번째 레시피를 선택해죠 맛있어 보이네요 구체적인 레시피가 바로 보이고 요리 시작하기를 탭해주면 됩니다 알겠습니다 테이스티의 레시피입니다 이처럼 시현 영상을 보는 동시에 음성 안내를 들을 수 있습니다 이러한 기능들은 요리에 있어서 혁명과 같습니다 특히 두 손이 뭔가를 하고 있을 때 유용하죠 고마워요 매기 스마트 디스플레이를 활용한 몇 가지 방법으로 가정 생활을 쉽게 만들어봤습니다 훨씬 더 다양한 것들이 남았습니다 방송이나 듀얼 영상 전화를 하면서 가족들과 계속 연락을 하는 것부터 다른 스마트 홈 파트너들을 통해서 계속 집 안 상황을 파악하는 것이나 구글 지도를 통해 아침 출근길을 미리 확인해 보는 것까지요 구글의 제일 좋은 것들을 결합하고 전세계의 개발자 및 협력자들과 작업하여 음성과 영상을 한 데 모아 완전히 새로운 생활방식을 가져올 겁니다 스마트 디스플레이에 고무되어 화면용 어시스턴트에 대해 다시 한 번 생각해봤습니다 우리와 언제나 함께 하는 화면인 휴대폰에 대해서요 휴대폰에서 어시스턴트가 작동하는 방식을 잠깐 보여드릴게요 얼마나 실감나고 상호 작용하며 주도적으로 작동하는 지 보시죠 또 다른 라이브 데모 버전을 볼 건데요 헤이 구글 카밀라 카베요에 대해서 말해줘 위키피디아에 따르면 카를라 카밀라 카베요 에스트라바오는 미국의 가수이자 작곡가입니다 보시다시피 화면의 장점을 활용해서 풍부하고 몰입되는 대답을 합니다 다른 예시입니다 난방 좀 줄여 줘 알겠습니다 거실의 온도를 낮춥니다 스마트 홈에서 여러분은 그저 손가락 하나로 모든 제어를 할 수 있습니다 제가 제일 좋아하는 걸 보여 드릴게요 헤이 구글 스타벅스에서 내가 매일 주문하는 거 주문해 줘 안녕하세요 스타벅스에 다시 와 주셔서 감사합니다 톨 사이즈의 무지방 라떼에 카라멜 드리즐 올려서 한 잔 맞으시죠? 다른 건 필요 없으신가요? 아니요 괜찮아요 그러면 항상 방문하시는 매장에서 가져가실 건가요? 여기서 '네'를 탭합니다 네 주문 접수되었습니다 조금 이따 만나요 어때요? 우리와 협업하는 브랜드는 스타벅스 던킨 도넛, 도어대시, 도미노 그리고 그 외에 많은 동업자들이 음식 방문 포장 및 배달 업계에 있고 구글 어시스턴트와 함께 합니다 몇몇 브랜드들은 이미 사용 가능하고 앞으로 더 많은 브랜드들이 가능할 예정입니다 요구 사항에 대해 훌륭하게 상호작용하는 대응은 정말 도움이 됩니다 하지만 제 이상적인 어시스턴트는 주도적으로 도울 수 있어야 합니다 지금 어시스턴트에 들어와 있는데 여기서 화면을 위로 밀어 올리면 제 하루를 시각적인 스냅 사진으로 확인할 수 있습니다 유용한 제안들도 볼 수 있죠 시각과 위치, 심지어는 어시스턴트와 최근 한 대화에 근거해서요 알림들, 택배들 노트와 목록들까지 모두 있고 잘 정돈되어서 바로 볼 수 있습니다 저는 이런 사소한 것들을 유용하게 관리하고 쉽게 볼 수 있는 편리함을 사랑합니다 이 새로운 휴대폰용 시각 경험은 AI 중심으로 디자인되었습니다 이번 여름에 안드로이드에서, 하반기에 iOS에서 출시됩니다 때때로 시각적 측면을 낮춤으로써 어시스턴트가 더욱 더 실제로 유용하게 쓰이기도 합니다 차 안에 있다고 해 봅시다 운전에 집중해야겠죠 직장에서 집을 향해 가는 길입니다 러시 아워임에도 최단 거리를 보여주는 구글 지도가 있습니다 헤이 구글 닉한테 내 예상도착시간 보내주고 힙합 틀어 줘 알겠습니다 닉에게 20분 뒤 도착한다고 알립니다 유튜브에서 힙합 음악을 검색합니다 남편에게 예상도착시간을 알리는 게 간단한 음성 명령어만으로 가능하니까 정말 편리하죠 구글 지도 네비게이션에 어시스턴트가 장착될 겁니다 이번 여름부터요 스마트 디스플레이, 휴대폰을 거쳐서 지도까지 둘러봤습니다 구글 어시스턴트가 어떻게 활용될 지 느낌이 오시나요 좀 더 시각적 도움이 되는 방법으로요 언제 음성으로 응답할지 그리고 언제 좀 더 몰입하여 대화를 나눌지 알아차릴 수 있습니다 이제 피차이CEO에게 다시 마이크를 넘깁니다 감사합니다 고마워요 릴리안 우리 어시스턴트의 진척사항을 보니 기분이 좋네요 아까 말했지만 우리의 어시스턴트 비전은 여러분이 일을 끝내게 돕는 것입니다 일을 하는 것의 큰 부분이 전화를 거는 것이더라구요 엔진 오일 교환 일정을 잡고 싶을 수도 있고 주중에 배관공에게 연락하고 싶을 수도 있고 미용실 예약을 하고 싶을 수도 있습니다 그런 순간에 사용자를 돕기 위해서 열심히 연구했습니다 사용자들과 사업을 좋은 방식으로 연결하고 싶었습니다 사업은 사실 예약에 많이 의지하죠 하지만 심지어 미국에서도 소기업의 60%는 온라인 예약이 불가능합니다 AI가 그런 문제를 도와줄 수 있을 것이라 생각했습니다 이 예시를 봅시죠 구글에게 화요일에 미용실 예약을 부탁하고 싶다고 해보죠 오전 10시에서 12시 사이에요 무슨 일이 일어날 거냐면 구글 어시스턴트가 여러분을 위해 매끄럽게 전화를 해 예약 하는 것입니다 지금부터 들으실 것은 구글 어시스턴트가 실제 미용실 직원에게 전화를 해서 예약을 하는 내용입니다 들어보시죠 여보세요 무엇을 도와드릴까요? 여보세요 제 고객의 컷트 예약을 하려는데요 5월 3일에 가능한가요 그럼요 잠깐만 기다려주세요 몇 시쯤에 생각하시나요? 오후 12시쯤이요 오후 12시는 꽉 찼습니다 제일 가까운 시간은 1시 15분 정도예요 오전 10시에서 오후 12시 사이에는 안 되나요? 뭘 하시느냐에 따라 달라집니다 고객이 어떤 서비스를 원하시죠? 그냥 여성 컷트요 알겠습니다 그러면 오전 열시에 가능해요 오전 열시 괜찮네요 고객님 성함이 어떻게 되시나요? 리사예요 알겠습니다 완벽해요 5월 3일 오전 10시에 리사씨 예약되셨습니다 네 알겠어요 감사합니다 감사해요 좋은 하루 되세요 여러분이 들으신건 실제 통화입니다 어시스턴트가 실제로 대화의 뉘앙스를 이해한다는 게 정말 놀랍지 않나요 이 기술 연구에 수년을 들였습니다 이를 구글 듀플렉스라고 부릅니다 자연스러운 언어 이해와 딥 러닝, 실감나는 대화에 우리가 수년동안 들인 투자의 산물이죠 어시스턴트는 일이 끝나면 예약이 완료되었다는 확인 알림을 여러분에게 전해줍니다 다른 예시를 보여드리겠습니다 식당에 전화를 하고 싶다고 해 봅시다 아마 작은 식당일 거예요 온라인 예약이 보통 불가능하죠 그리고 통화가 예상과는 조금 다른 방향으로 전개됩니다 한 번 들어보시죠 여보세요 무엇을 도와드릴까요? 안녕하세요 7일 수요일에 예약하려구요 일곱 분인가요? 4명이에요 네 분이요? 언제죠? 오늘인가요? 오늘밤? 다음 수요일 오후 여섯시요 사실 우리 가게는 5명부터 예약할 수 있어요 네 분이라면 그냥 오시면 됩니다 자리에 앉기까지 대기 시간은 어느 정도인가요? 언제요? 내일이요? 아니면 주말? 다음 주 수요일이요 7일 입니다 그리 붐비지 않을 거예요 네 분이 오시는 거 맞죠? – 알겠습니다 감사해요 – 네 들어가세요 다시 말씀드리지만 실제 통화입니다 예상처럼 흘러가지 않는 통화는 자주 있는 일이잖아요 어시스턴트는 문맥과 뉘앙스를 이해하고 만일에 대비해서 대기시간까지 물어봅니다 대화를 우아하게 다뤘어요 이 기술은 여전히 개발 중이고 열심히 연구하고 있습니다 사용자들의 경험과 기대를 충족시켜 회사와 사용자 모두에게 좋도록요 올바르게 이루어진다면 사람들의 시간을 절약하고 회사들에게 큰 가치를 창출해 줄 겁니다 이런 때에도 사용 가능하게 하고 싶어요 아침을 맞이한 바쁜 부모님인 거예요 게다가 아이가 아파서 의사에게 예약 전화를 하는 상황입니다 이 상황에 사용 가능하려면 정말 열심히 일해야 할겁니다 이보다 단순한 일들에는 조만간 사용 가능하게 출시될 겁니다 예를 들면 매일 구글에는 많은 질문들이 올라옵니다 사람들이 사업체의 개장 시간과 폐장 시간을 알고 싶어하는 질문들이 많죠 하지만 휴일이 끼면 까다로워지잖아요 사업체들은 많은 전화를 받게 되죠 그래서 우리 구글이 단 한 통의 전화를 하고 그 정보를 수백만 사용자들을 위해서 업데이트를 하는 겁니다 그러면 소규모 사업체들이 무수히 많은 전화를 받을 필요가 없겠죠 이렇게 시간을 수정함으로써 사용자들에게 더 나은 경험을 하게 만들어 줄 겁니다 다가오는 주에 이 기능을 시험 삼아 출시할 예정입니다 지켜 봐 주세요 이 모든 것을 아우르는 하나의 주제는 우리가 사용자들에게 시간을 주기 위해 열심히 노력한다는 것입니다 구글에서는 이점에 집착해왔습니다 검색에서는 사용자들이 원하는 답을 빠르게 찾아서 알려주는 데 집착했죠 그리고 저는 새로운 영역인 디지털 웰빙으로 들어섰습니다 연구 결과에 따르면 사람들은 전자기기에 매여 산다고 느낍니다 여러분들도 이런 기분을 느끼시겠죠 사회적인 압박은 커져만 갑니다 무엇이든 받는 즉시 응답하라구요 사람들은 정보를 바로바로 처리하느라 초조해합니다 포모를 겪고 있죠 최신 유행에 뒤쳐지는 것을 두려워합니다 우리는 더 나은 방법이 있을 거라고 생각했고 사람들에게 말해왔습니다 몇몇이 조모라는 개념을 알려주더군요 유행에 뒤쳐지는 즐거움이죠 그래서 우리는 디지털 웰빙이 진짜로 사용자들을 도울 수 있다고 믿습니다 많은 노력이 지속되어야 할 겁니다 우리의 모든 상품들과 플랫폼에 걸친 노력이죠 여러분의 도움이 필요합니다 디지털 웰빙으로 사용자를 도울 수 있는 방법은 네 가지입니다 여러분의 습관을 이해하고 문제를 파악하여 필요할 때 스위치를 꺼버립니다 가장 중요한 건 가족과의 균형을 찾는 거죠 예시를 몇 개 보여드리겠습니다 다가오는 출시일에 안드로이드에서 이 소식을 듣게 될 겁니다 제가 가장 좋아하는 기능은 바로 대시보드입니다 안드로이드에서 여러분이 어떻게 시간을 쓰는 지를 완벽하게 보여드릴 예정인데요 작동시켰던 앱들 그 날짜에 휴대폰을 켠 횟수 받은 알림 수 그리고 그것들을 해결하여 더 나아지도록 도울 생각입니다 앱들도 도움이 될 수 있죠 유튜브가 선두에 설 텐데요 만약 여러분이 동의한다면 휴식을 취하라고 알림을 줄 겁니다 예를 들어서 한동안 유튜브를 봤다면 알림창이 떠서 말하는 거죠 '휴식을 취할 시간입니다' 사용자들이 원한다면 유튜브가 시행할 다른 것은 모든 알림을 통합하는 겁니다 일별 요약 형태로 말이죠 네 개의 알림이 왔다면 하루에 한 번만 알림이 오는 거죠 유튜브가 이 기능을 이번 주에 출시할 예정입니다 이 분야에 있어서 많은 작업을 해 왔어요 패밀리 링크가 좋은 예죠 부모님들에게 자녀의 화면 보는 시간을 관리할 수 있는 도구를 제공했습니다 전 이게 중요한 부분이라고 생각합니다 여기에서 더 나아가고 싶습니다 아이들이 똑똑한 결정을 내릴 준비를 갖추게 하고 싶습니다 그래서 우리의 새로운 접근 방식인 구글 디자인 접근입니다 비 인터넷 어썸이라고 부르죠 아이들이 디지털 세상에서 안전한 탐험을 하게 도와줍니다 아이들이 안전하고 친절하며 사려 깊은 온라인 세상에 있기를 원합니다 다가오는 해에 아이들 오백만명을 추가로 훈련시킬 것을 서약합니다 지금 보시는 이 모든 도구들은 우리 디지털 웰빙 사이트에서 오늘 오후에 출시됩니다 우리가 거대한 책임감을 느끼는 또 다른 분야가 있습니다 바로 뉴스입니다 뉴스는 우리 주요 임무죠 또한 이런 시대에는 양질의 언론을 지원하는 것이 어느 때보다 중요한 일이잖아요 민주주의가 작동하는 데 기본이 되죠 저는 언제나 뉴스를 좋아했어요 인도에서 자라면서 분명히 기억하는 건 제가 신문을 기다렸었다는 거예요 할아버지는 제 바로 옆에서 같이 기다리셨죠 분명한 서열이 있었습니다 할아버지가 신문을 제일 먼저 보시고 그 다음은 아버지, 그리고 제 형까지 읽으면 제 차례가 왔죠 그 당시에는 주로 스포츠 영역을 좋아했습니다 시간이 흐르면서 뉴스에 대한 저의 애정도 커져갔고 오늘날까지도 저와 함께하고 있습니다 뉴스 산업에게 어려운 시기입니다 구글 뉴스 이니셔티브를 최근에 출시했습니다 삼억 달러를 향후 삼년간 투자하기로 결정했습니다 기관이나 기자들과 함께 일하면서 산업에 도움이 되는 혁신적인 제품과 프로그램을 개발하는 데 도움을 주고 싶습니다 그와 관련한 제품인 구글 뉴스는 오랫동안 우리 곁에 있었죠 사실 911테러 직후에 만들어졌습니다 스무 명의 직원이 투입된 프로젝트로 다양한 신문사의 뉴스를 보고 무슨 일이 일어났는지 더 잘 이해하고 싶어했던 한 기술자에 의해 시작됐습니다 그 때부터 컨텐츠의 양과 다양성은 커져가기만 했습니다 오늘날 생산되는 기사는 그 어느 때보다 대단한 양을 보여줍니다 도움이 간절해서 구글을 켠 사람들에게 정확한 정보를 제공하는 것이 우리의 책임인 것이 사실이죠 이게 바로 우리가 뉴스 프로젝트를 다시 구상하게 된 이유입니다 AI를 활용해서 언론이 제시해야 하는 제일 중요한 것을 우선 제시합니다 사용자가 신뢰하는 양질의 기사를 제공하고 싶습니다 하지만 출판사들을 위한 제품도 만들고 싶습니다 그 무엇보다도 깊은 통찰력과 완전한 관점으로 사용자가 관심있어 하는 주제를 제공해주고 싶습니다 새로운 구글 뉴스를 발표하게 되어 굉장히 떨립니다 트리스탄이 더 자세하게 설명해 줄 겁니다 구글 뉴스 엔지니어 트리스탄 업힐 피차이CEO님 감사합니다 새로운 구글 뉴스와 함께 세 가지 일을 도우려고 합니다 첫 번째, 여러분이 관심 있는 뉴스를 계속 알 수 있게 하겠습니다 두 번째, 완전한 이야기를 이해하게 하겠습니다 마지막으로 여러분이 사랑하는 신문사를 즐기고 후원할 수 있게 하겠습니다 결국 뉴스 출판사와 그들이 만드는 양질의 기사가 없다면 오늘 여러분에게 보여 줄 것이 아무것도 없겠죠 어떻게 여러분이 관심 있는 뉴스를 더 쉽게 알도록 만들 지부터 시작해보도록 하겠습니다 구글 뉴스를 켜면 제일 윗 부분에 지금 바로 알아야 하는 주요 기사 다섯 개의 브리핑이 보입니다 브리핑 밑으로는 당신만을 위해서 선택된 기사들이 보입니다 우리 AI가 지속적으로 웹의 파이어호스를 읽어서 매분 발행되고 있는 수백만개의 기사, 영상, 팟캐스트 그리고 댓글들을 당신이 알아야 하는 주요한 것에 따라 정리해 줄 겁니다 구글 뉴스는 각 지역 사건과 그 지역의 의견들도 보여줍니다 자신의 공동체에 연결된 것을 느끼게 해 주는 정보죠 크로니클의 이 기사는 새로운 베이브리지를 지나는데 얼마나 걸리는지를 궁금하게 했습니다 멋있는 건 제가 굳이 앱에게 나는 정치를 따른다거나 자전거를 좋아한다거나 베이 에리어에 대해 알고 싶다는 것을 말 할 필요가 없이 완벽하게 작동 합니다 그리고 우리가 앱에 강화학습같은 기술을 적용시켰기 때문에 더 많이 사용할수록 더 나아질 겁니다 언제든지 바로 이 출판사나 주제는 더 적게 혹은 더 많이 보고 싶다고 말해도 됩니다 다른 사람들은 뭘 읽는지 궁금해지면 헤드라인으로 바꿔서 지금 전세계에서 가장 보도가 많이 되는 주요 기사들을 볼 수도 있죠 더 살펴볼까요? 크고 멋있는 사진들이 많아서 이 앱이 완전히 시선을 사로잡는 걸 알 수 있죠 진심으로 훌륭한 영상은 물론이구요 한 번 보시죠 (기기에서 나오는 음악과 환호) 유튜브나 웹에 퍼져 있는 모든 최신 영상을 볼 수 있습니다 우리의 디자인은 앱을 가볍고, 쉽고, 빠르고 또한 재밌게 만드는 데 중점을 뒀습니다 우리의 처리 원칙은 이야기가 스스로 말하게 하는 것입니다 꽤 괜찮죠? 앱을 통해서 보시고 있는 것은 새로운 구글 머티리얼 테마입니다 앱 전체가 머티리얼 디자인을 이용해서 만들어졌는데요 변환할 수 있고 통일된 우리의 디자인 시스템으로 구글에서 특별히 맞춤 제작한 것입니다 오늘 오후에 더 자세한 설명과 각자의 제품에서 머티리얼 테마를 이용하는 방법에 대해 들으실 수 있습니다 새로운 비쥬얼 포맷인 뉴스캐스트를 기쁜 마음으로 소개하겠습니다 이런 것은 어떤 뉴스 앱에서도 보실 수 없으실텐데요 뉴스캐스트는 이야기를 미리보기하는 기능입니다 무슨 얘기인지 쉽게 알아차릴 수 있게 해 주죠 영화 스타 워즈와 관련된 이야기를 함께 확인해보시죠 자연스러운 언어 이해의 최신 기술을 이용해서 모든 것을 한 데 모았습니다 솔로의 영화 예고편부터 뉴스 기사나 캐스트의 언급까지 모두요 새로운 제시방식으로 휴대폰으로 보기에 아주 멋지죠 뉴스캐스트는 기본적인 것을 알기 쉽게 해 주고 더 자세히 알고 싶은 것을 결정할 수 있게 해 줍니다 또 가끔씩은 다른 방식으로는 절대 알지 못했을 것도 발견합니다 제가 제일 관심 있는 기사나 정말 복잡한 기사의 경우에는 뛰어들어서 다양한 관점을 확인하고 싶잖아요 그런 관점에서 구글 뉴스의 두 번째 목표에 대해서 얘기해 볼까요? 이야기 전체를 이해하는 겁니다 오늘날 스스로의 관점을 넓혀서 뉴스를 심도 깊게 이해하는 건 많은 노력이 필요하잖아요 구글 뉴스와 함께라면 큰 힘을 기울이지 않고 가능합니다 풀 커버리지는 더 자세히 알려주겠다는 초대장입니다 다양한 신문사와 형식으로 전해지는 이야기들 측면에서 이야기의 전체적인 그림을 완성시킵니다 우리는 시간적 동일 지역성이라는 기술을 이용해서 풀 커버리지를 만들었습니다 이 기술을 통해서 우리는 각 개체간의 관계를 볼 수 있고 이야기 속 사람, 장소, 물건을 이야기에서 전개된 그대로 이해할 수 있습니다 언제든지 이 기술을 웹의 정보의 홍수에 적용하여 줄거리에 맞게 구성합니다 전부 실시간으로 이뤄지죠 현존하는 가장 강력한 앱 기능입니다 뉴스를 파헤칠 수 있는 완전히 새로운 방식을 제공하죠 풀 커버리지가 작동하는 방법을 최근 푸에르토리코에서 발생한 정전을 통해서 알아보시죠 이 사건에 대해 굉장히 많은 궁금증을 가지고 있었습니다 "어떻게 일이 이 지경이 됐지?" "예방할 수는 없었을까?" "이 일이 해결되고는 있을까?" 같은 질문이었죠 풀 커버리지를 만들어서 이 모든 것을 한 자리에서 이해할 수 있게 해 봤습니다 무슨 일이 일어났는지 알려주는 주요 표제들부터 시작했습니다 그리고 실시간 사건 이해를 이용해서 중요한 이야기 측면에서 정리를 해 나갔습니다 이 일처럼 몇 주, 몇 달에 걸쳐서 발생하는 사건의 뉴스의 경우에는 우리의 주요 사건 시간대를 봄으로써 사건 전개를 파악할 수 있습니다 그리고 복구가 시작되었지만 아직 가야 할 길이 멀었음을 분명히 알 수 있었습니다 아직 남은 사건에 대한 질문들을 끄집어냈습니다 여러분이 직접 답을 찾으러 나갈 필요가 없게요 우리가 사건의 전후사정과 다양한 시각을 알고 있으므로 관련 인물의 트윗이나 여론 분석, 사실 확인 등을 보여주고 한 단계 깊게 이야기를 이해할 수 있도록 돕습니다 각각의 경우에서 왜 이 정보가 중요한지 어떤 특별한 가치를 지녔는지를 우리 AI가 강조해줍니다 제가 풀 커버리지를 사용하면서 제가 관심 있는 주제에 대해서 방대한 양의 지식을 쌓을 수 있다는 것을 알았습니다 360도의 시각을 가질 수 있었습니다 표제 몇 개를 훑어봤을 때보다 훨씬 나은 결과죠 그 무엇보다도 우리 연구 결과에 의하면 건설적인 대화나 토론을 위해서는 모두가 같은 정보를 얻을 수 있어야합니다 그게 바로 풀 커버리지에서 같은 주제에 대해 모두가 같은 내용을 보는 이유입니다 신뢰 할만한 신문사에서 여과 없이 사건에 대한 시각을 보여드립니다 감사합니다 이 말은 꼭 하고 싶었는데 저는 이 새로운 기능들을 사랑합니다 이것들은 우리가 새로운 구글 뉴스를 더 재미있게 만들기 위해 구상한 것 중 일부분에 불과합니다 하지만 아까 말씀드렸다시피 이 모든 건 대단한 언론이 매일 만들어내는 것이 없었다면 존재할 수 없습니다 이것은 바로 우리의 마지막 목표인 여러분이 좋아하는 신문사를 즐기고 후원하게 돕는 것으로 이어지죠 앱의 전면 중앙에 신문사를 위치시켰습니다 그리고 뉴스스탠드에서는 좋아하는 신문사를 찾아서 팔로우하거나 새로운 신문사를 검색하고 찾기 쉽습니다 천여개가 넘는 잡지도 있는데요 와이어드, 내셔널 지오그래픽, 피플 같은 잡지로 모두 제 휴대폰에서 보기에는 아주 멋있네요 USA 투데이같은 출판물을 팔로우하려면 별 모양을 직접 탭하면 됩니다 만약 구독하고 싶은 출판물이 있다면 예를 들어 워싱턴 포스트를 구독하고 싶다면 이를 매우 쉽게 만들었습니다 양식도 신용카드 번호도 새로운 비밀번호도 필요 없습니다 구글 계정으로 가입하기 때문에 이미 준비가 되어있죠 출판사를 구독하면 어디에서나 쉽게 컨텐츠를 볼 수 있어야 한다고 생각합니다 그리고 이게 구글을 통한 구독을 개발한 이유입니다 구글을 통한 구독은 구글 계정으로 로그인한다면 이미 지불한 컨텐츠를 어디에서든 이용 가능하게 합니다 어떤 플랫폼이나 장비든지 구글 써치나 구글 뉴스, 출판사의 사이트에서 지불한 것이라면요 전세계 60개가 넘는 출판사들과 공동으로 작업했습니다 다가오는 주에 출시될 예정입니다 감사합니다 언제 어디서든지 가장 중요한 신뢰할 수 있는 고품질의 정보에 쉽게 접근할 수 있게 하기 위해서 우리가 나아가야 할 수많은 단계 중 하나였습니다 그게 새로운 구글 뉴스였죠 관심 있는 뉴스를 계속 볼 수 있고 브리핑과 뉴스캐스트를 제공해주고 이야기 전체를 이해할 수 있으며 풀 커버리지를 사용할 수 있고 좋아하는 신문사를 읽고 팔로우하고 구독함으로써 즐기고 후원할 수 있게 해줍니다 이제 발표할 제일 좋은 뉴스는 127개국의 안드로이드와 iOS, 그리고 웹에서 오늘부터 이 기능을 사용할 수 있다는 겁니다 저도 그렇게 생각해요 정말 멋진 일이죠 다음 주부터는 누구든지 사용할 수 있을 겁니다 구글에서는 정확한 적시의 정보를 사람들에게 제공하고 양질의 언론을 만들고 후원하는 게 그 어느 때보다 바로 지금 중요하다는 것을 알고 있습니다 우리의 역할을 수행하기 위해 최선을 다하겠습니다 이 여정을 여러분과 함께 하게 되기를 고대합니다 이제 제가 소개할 데이브는 안드로이드의 최신 소식을 알려줄 겁니다 안드로이드는 단순한 목표를 가지고 시작했습니다 모바일 산업에 공개된 표준을 만들자는 것이었죠 오늘날 안드로이드는 전세계에서 가장 유명한 모바일 운영 체계입니다 학습을 위한 개방 지원을 위한 개방 변화를 위한 개방 차이를 위한 개방 모두를 위한 개방 새로운 한계를 향한 개방 새로운 친구를 위한 개방 세상을 향한 개방 미래를 향한 개방 만약 당신이 개방성을 믿는다면 선택을 믿는다면 모두의 혁신을 믿는다면 안드로이드에 오신 것을 환영합니다 10년간 감사했습니다 모두들 안녕하세요 2018 개발자 회의에 참가하게 되어 영광입니다 안드로이드 엔지니어링 담당 부사장 데이브 버크 십년 전에 첫 번째 안드로이드 휴대폰인 T 모바일 G1을 출시했습니다 간단하지만 대담한 아이디어였습니다 모두에게 열려 있는 무료 모바일 플랫폼을 만들자 그리고 오늘날 그 아이디어는 빛을 발하고 있습니다 우리 동업자들이 수만개의 스마트폰을 출시해서 전세계 수십억의 사람들이 이를 사용하고 있습니다 이 여정을 통해서 우리는 안드로이드가 단순한 스마트폰 운영 체계를 뛰어넘었다는 것을 알 수 있었습니다 웨어러블 기기나 TV, 자동차, AR, VR, IoT 등의 새로운 컴퓨팅 분야에 힘을 불어넣어 주고 있습니다 지난 십년간 안드로이드의 성장은 데스크탑에서 모바일로의 컴퓨팅의 변화를 도왔습니다 피차이CEO가 말했듯이 세계는 새로운 변화에 직면해 있습니다 AI가 산업을 크게 변화시킬 겁니다 건강 관리나 교통같은 분야에서요 우리 산업 역시 이미 바뀌고 있습니다 그 결과 우리가 작업하고 있는 새로운 안드로이드인 안드로이드 P가 나왔습니다 안드로이드 P는 AI를 운영 체계 핵심으로 하는 새로운 비전의 중요한 첫 걸음입니다 사실 AI는 이번 출시의 세가지 테마의 첫 번째 테마를 뒷받침해줍니다 세가지 테마는 지능 단순함 디지털 웰빙입니다 지능부터 시작해보겠습니다 우리는 스마트폰이 더 똑똑해져야 한다고 믿습니다 스마트폰은 여러분에게서 배우고 여러분에게 적응해야 합니다 내장된 머신 러닝같은 기술은 여러분의 사용 패턴을 익히고 자동적으로 다음 행동을 예상해서 여러분의 시간을 절약해줍니다 기기에서 운영되기 때문에 데이터가 휴대폰에서 비공개로 저장됩니다 몇몇 예시를 통해서 이 기술을 어떻게 안드로이드에 적용시켜 더 똑똑한 운영 체계를 만들었는지 직접 확인해보시죠 거의 대부분의 설문조사에서 스마트폰 사용자들은 제일 걱정되는 것으로 배터리 수명을 꼽았습니다 여러분에게도 적용될 지 모르겠지만 이건 제 버전의 매슬로의 욕구 단계입니다 배터리, 와이파이, 생리적 욕구 안정, 애정, 존경, 자아 실현 다 겪어보신 적 있으시잖아요 배터리가 충분한 것 같았는데 집 밖을 나서기만 하면 평소보다 빠르게 사라지면서 충전기로 달려가야만 하죠 안드로이드 P는 딥 마인드와 협력하여 적응형 배터리라는 새로운 기능을 만들었습니다 여러분에게 좀 더 지속되는 배터리를 선사하기 위해 설계되었습니다 적응형 배터리는 내장된 머신 러닝을 사용하여 다음 몇 시간 동안 당신이 어떤 앱을 사용할지 어떤 앱을 오늘은 전혀 사용하지 않을지를 예측할 수 있습니다 그리고 그 예측과 운영 체계가 적응한 당신의 사용 패턴을 결합하여 당신이 쓸만한 앱과 서비스에만 배터리를 소모합니다 결과는 굉장히 탁월했습니다 전체적으로 켜진 앱에 쓰이는 CPU를 30% 감소시킬 수 있었습니다 작은 CPU 코어를 이용하여 작동하는 백그라운드 프로세서같은 다른 수행 능력 향상과 결합되어 많은 사용자들에게 배터리 사용 시간을 늘려주었습니다 꽤 멋지죠 OS가 사용자에게 적응하는 또 다른 예시는 자동 밝기 조절입니다 대부분의 현대 스마트폰은 밝기를 자동으로 조절합니다 주변의 밝기 조건을 따져서요 하지만 한 방식으로만 작동하죠 여러분의 개인적 기호나 환경은 고려하지 못합니다 그래서 여러분이 직접 밝기를 조정하는 일이 자주 일어나게 되고 나중에는 화면이 너무 밝아 보이거나 너무 어둡게 보이게 됩니다 그래서 안드로이드 P에서는 새로운 내장 머신 러닝 기능인 적응형 밝기를 씁니다 적응형 밝기는 주변 조명에 따라 여러분이 어떻게 밝기 조절을 하는지 습득해서 그대로 조절을 해줍니다 에너지 효율적인 방법으로요 휴대폰이 여러분의 기호에 적응함에 따라 여러분은 밝기가 말 그대로 자동 조절되는 것을 볼 수 있습니다 놀랍도록 효율적이죠 실제로 시험 사용자 중 약 절반이 이전 안드로이드 버전들에 비해서 직접 밝기 조절을 덜 하게 되었습니다 우리는 UI 역시 좀 더 지능적으로 만들었습니다 작년에 예상 앱이라는 개념을 소개했습니다 여러분이 평소에 앱을 사용하는 흐름에 맞춰 OS가 다음으로 여러분이 필요로 할 앱을 예상하고 보여주는 기능입니다 매우 효율적이죠 거의 60%의 예상률을 보여줬습니다 안드로이드 P는 단순히 다음에 실행할 앱을 예상하는 수준을 벗어나서 여러분이 다음에 취할 행동이 무엇인지 예상합니다 이 기능은 앱 액션이라고 합니다 어떤 기능인지 한 번 보시죠 런처의 맨 위에 두 가지 액션이 보이시죠 하나는 제 여자동생인 피오나에게 전화하는 것이고 다른 하나는 스트라바 앱을 사용해 저녁 조깅을 시작하는 것입니다 그러니까 액션들이 제 사용 패턴에 따라 예상되는 거죠 휴대폰이 저에게 맞춰서 제 다음 일을 하도록 돕는 겁니다 더욱 빠르게 할 수 있게요 다음 예시입니다 제가 헤드폰을 연결하면 안드로이드는 제가 듣던 앨범을 다시 틀어줍니다 앱 액션을 지원하기 위해 개발자들은 앱에 actionsxml을 추가해주기만 하면 됩니다 그러면 액션이 런처에서 뿐 아니라 스마트 텍스트 선택, 플레이스토어, 구글 검색 그리고 어시스턴트에서까지 작동할 겁니다 구글 검색을 보시죠 우리는 다른 방식들로 액션이 나타나게 실험을 하고 있습니다 설치해서 많이 쓰는 앱들을 위해서요 예를 들면 저는 판당고를 아주 자주 씁니다 그래서 제가 새로운 어벤져스 영화인 인피니티 워를 검색하면 보통의 제안에 더해서 판당고 앱에서 표를 사는 액션까지 받게 됩니다 꽤 멋있죠 액션은 간단하지만 대단한 아이디어로 여러분의 상황에 맞게 앱에 깊은 연결고리를 제공해줍니다 하지만 그보다 더 대단한 것이 있습니다 앱 UI를 그때그때 적절하게 사용자에게 제공하는 겁니다 이걸 슬라이스라고 부릅니다 슬라이스는 새로운 API로 개발자들이 앱 UI에서 상호작용되는 정보를 분명히 하게 해 줍니다 OS에서는 다른 곳에서 나타날 수도 있습니다 안드로이드 P에서는 슬라이스를 검색에서 가장 먼저 보여주는 준비 작업을 해 두었죠 한 번 보실까요? 제가 밖에 나와 있는데 출근하기 위해 차를 타야 한다고 합시다 제가 구글 검색 앱에 리프트를 입력하면 제 휴대폰의 리프트 앱에서 만든 슬라이스를 볼 수 있습니다 리프트는 슬라이스 API를 이용해서 UI 템플릿의 다양한 배열을 보여줍니다 검색하는 중에 리프트 앱의 슬라이스를 만들기 위함이죠 그러고 나면 리프트가 제 직장까지의 비용을 보여주고 슬라이스가 상호작용할 수 있기 때문에 저는 바로 거기서 택시를 부를 수 있죠 아주 좋습니다 슬라이스 템플릿은 다용도로 개발자들이 모든 곳에 쓸 수 있습니다 영상 재생부터 호텔 체크인까지요 또 다른 예들 들어볼가요 제가 하와이를 검색하면 구글 포토에서 제 휴가 사진 슬라이스를 보여줍니다 우리는 놀라운 파트너들과 함께 앱 액션과 슬라이스를 작업했습니다 개발자들을 위한 얼리액세스가 다음 달에 좀 더 광범위하게 열릴 예정입니다 지금까지 액션이 그 중에서도 슬라이스가 역동적인 양방향 경험을 가능하게 해 주는 것을 보셨습니다 앱의 UI가 상황에 맞게 지능적으로 나타나서 가능한 일이죠 지금까지 우리가 안드로이를 사용자에 맞추게 하기 위해 운영체계를 가르쳐 좀 더 지능적으로 만들고 있는 방법들을 소개했습니다 머신 러닝은 강력한 도구입니다 하지만 개발자들이 배우고 적용하기에 어렵거나 비싸게 느껴질 수 있죠 우리는 이런 도구가 머신 러닝에 대해 전문지식이 없거나 적은 사람들에게도 접근 가능하고 쓰기 쉽게 되기를 원했습니다 그래서 제가 오늘 발표할 것은 ML 키트입니다 새로운 API 세트로 파이어베이스를 통해 사용 가능합니다 ML 키트는 여러분에게 내장 API를 줘서 문자 인식, 얼굴 탐지 영상 표지 등등에 쓸 수 있게 합니다 ML 키트는 구글의 클라우드 기반 ML 기술에 다가갈 수 있는 능력을 지원해줍니다 시스템 구성상으로 ML 키트는 사용 준비가 완료된 모델을 제공하고 텐서플로우 라이트를 기반으로 하며 모바일에 최적화되어 있습니다 가장 좋은 점은 ML 키트가 공통 사용이 가능해서 안드로이드와 iOS 모두에서 작동하는 기능이라는 겁니다 구글은 ML키트를 통해 굉장히 좋은 결과를 얻은 협력사들과 함께 일하고 있습니다 예를 들면 유명한 칼로리 계산 앱인 루즈 잇!은 우리의 문자 인식 모델을 써서 영양 정보를 검사하고 ML 키트 맞춤형 모델 API를 써서 카메라를 통해 수집한 200가지의 다른 음식들을 자동적으로 분류합니다 오늘 오후 개발자 기조 연설에서 ML 키트에 대해 더 들으시게 될겁니다 스마트폰을 더 지능적으로 만들 수 있어서 너무 좋지만 우리에게는 유행이 지나간 기술도 중요합니다 우리의 지난 몇 년간 주요 목표는 안드로이드 UI를 현재의 사용자들과 다음 안드로이드 사용자 10억 둘 모두에게 좀 더 간단하고 접근 가능하게 진화시키는 것이었습니다 안드로이드 P에서는 단순함을 특별히 강조했습니다 우리가 생각하고, 여러분이 말씀 해주신 불만 사항들 즉, 원안 보다 더욱 복잡했던 경험들을 다루면서말이죠 이러한 개선사항은 구글 버전의 안드로이드 UI를 적용한 기기에서 찾아 보실 수 있는데 구글 픽셀이나 안드로이드 원 기기들이죠 제 휴대폰에서 라이브 데모 버전을 몇 개 실행해보겠습니다 원형 극장에서 칠천명이 저를 주시하는데 뭐가 잘못되겠어요? 그렇죠? 안드로이드 P를 통해 새로운 시스템 탐색 방법을 소개합니다 우리가 일년 넘게 연구한 결과죠 새로운 디자인이 안드로이드의 멀티태스킹을 좀 더 접근하기 쉽고 이해하기 쉽게 했습니다 가장 먼저 눈에 띄는 것은 하나의 깨끗한 홈 버튼입니다 더 적은 베젤을 원하는 디자인 트렌드를 인식해서 화면 가장자리의 여러개의 버튼보다는 제스처에 강조를 둔 디자인입니다 제가 화면을 밀어 올리면 바로 오버뷰가 생성 되고 최근에 사용했던 앱을 다시 사용할 수 있습니다 화면 하단에는 예상 앱 다섯개가 있어서 시간을 절약할 수 있습니다 계속해서 화면을 밀어 올리면, 즉, 두 번 위로 밀어올리면 모든 앱을 볼 수 있습니다 그러니까 시스템 공학적으로 우리가 한것은 것은 모든 앱과 오버뷰 공간을 하나로 합친 것입니다 밀어 올리는 제스처는 어디에서는 통합니다 어떤 앱을 사용하고 있든지 모든 앱과 오버뷰로 빠르게 돌아올 수 있는 거죠 제가 하고 있던 것들을 없애지 않고서도요 그리고 만약 원하신다면 퀵 스크럽 제스처를 사용하실 수도 있습니다 홈 버튼을 옆으로 슬라이드해서 최근 사용한 앱들을 스크롤하는 거죠 이 커진 수평 오버뷰의 장점 중 하나는 앱 컨텐츠를 알아 보기 쉬워서 이전에 사용한 앱의 정보를 다시 보기 편하다는 겁니다 심지어 우리는 스마트 텍스트 선택을 오버뷰까지 확장시켰습니다 예를 들면 제가 밴드 더 킬러스의 설명 중 한 곳을 탭하면 문구가 선택되어지고 스포티파이 같은 앱에서 들어볼 수 있는 액션이 보입니다 스마트 텍스트 선택은 또한 신경망까지 확장되어 좀 더 많은 개체를 인식할 수 있습니다 스포츠 팀이나 음악가, 항공편 번호들까지도요 이 뷰 탐색 시스템을 지난 달에 사용해보면서 정말 좋았습니다 훨씬 빠르고 효율적으로 끊임없이 멀티태스킹을 할 수 있죠 탐색 작업을 바꾸는 것은 굉장히 어려운 일입니다 하지만 가끔씩은 작은 변화가 큰 차이를 가져오기도 하죠 음량 조절이 한 예입니다 다들 그런 경험 있으시잖아요 영상이 재생되기 전에 음량을 줄이려고 했는데 그 대신에 벨소리를 작게 하고 영상의 음성이 주변에 있는 모두에게 울려 퍼졌던 경험이요 이걸 어떻게 고칠 수 있을까요? 여기 새롭게 나온 간편해진 음량 조절이 있습니다 수직으로 되어 있고 하드웨어 버튼 옆에 있어서 직관적이죠 주요 차이점은 이제 슬라이더가 미디어 음량만을 조절한다는 겁니다 그게 제일 자주 조절하는 거니까요 벨소리 음량에 있어서 제일 자주 쓰이는 것은 키거나 무음이거나 끄는 것이잖아요 간편하죠 우리가 회전도 굉장히 간편하게 바꿨습니다 저와 같다면 기기가 원하지 않을 때 회전되는 걸 싫어하실 텐데요 그렇다면 이 기능을 좋아하실 겁니다 지금 저는 회전 잠금 모드입니다 앱을 켜 보죠 그리고 기기를 회전시키면 새로운 회전 버튼이 탐색 바에 뜬 것을 볼 수 있습니다 그러면 그걸 탭해서 회전을 조절할 수 있습니다 꽤 멋진 기능이죠 지금까지 안드로이드 P에서의 사용자 경험을 간편화시킨 방법들에 대해 빠르게 훓어봤습니다 아직 많이 남아있어요 작업 분석 재설계부터 더 나은 스크린샷이나 개선된 알림 관리 등등 말이죠 알림 관리 말이 나왔으니 말인데 우리는 여러분이 원하신다면 더 많은 통제권을 드리고 싶습니다 피차이CEO가 이전에 암시한 디지털 세상과 현실 세상을 쉽게 이동할 수 있게 하겠다는 개념에서 중요한 부분입니다 이 중요한 영역과 우리의 세 번째 테마를 좀 더 자세히 알아보기 위해 사미르에게 마이크를 넘기겠습니다 감사합니다 모두들 안녕하세요! 최근에 가족과 휴가를 다녀왔는데 부인이 제 휴대폰을 봐도 되냐고 물었습니다 호텔 방에 들어서자마자요 저에게서 휴대폰을 가져가서 호텔 금고로 걸어가더니 안에 넣고 잠가버리더군요 그리고 돌아서서 제 두 눈을 보며 말했습니다 "칠일 뒤에 우리가 집으로 돌아갈 때 다시 줄게" 와! 전 충격을 받았죠 살짝 화가 나기도 했습니다 하지만 몇 시간이 지나자 근사한 일이 일어났습니다 휴대폰에서 오는 방해가 없어지자 제가 실제로 세상과 떨어져서 현재에 충실해질 수 있었고 멋있는 가족 휴가를 즐길 수 있었죠 저에게만 해당되는 일은 아닙니다 우리 팀은 기술과의 적절한 균형을 찾으려는 사람들의 이야기를 많이 들어왔습니다 피차이CEO에게서 들으셨 듯이 디지털 웰빙을 돕는 것이 어느 때보다 중요한 시기입니다 사람들은 휴대폰을 사용하는 시간이 정말 유용한 시간이라고 말하곤 합니다 하지만 가끔씩은 다른 일을 하면서 시간을 보내고 싶다고 하죠 사실 우리는 70%가 넘는 사람들이 이 균형을 맞추기 위해 도움을 필요로 한다는 것을 발견했습니다 그래서 열심히 연구한 끝에 안드로이드에 주요 능력을 더했습니다 사람들이 원하는 기술과의 균형 찾기에 도움을 주는 능력이죠 우리가 첫 번째로 주목한 것은 여러분의 습관을 이해하는 데 도움을 주는 것입니다 안드로이드 P는 대시보드를 통해 여러분이 기기에서 어떻게 시간을 보내는 지 보여줍니다 아까 보셨다시피 어떤 앱에서 얼마나 시간을 보내는지 오늘 하루 얼마나 자주 기기를 열었는지 그리고 알림을 얼마나 많이 받았는지 같은 것들이죠 이런 것들 중 무엇이든지 한 층 더 분석해 볼 수 있습니다 예를 들어보겠습니다 제 토요일 G메일 데이터입니다 이걸 보면 제가 주말동안 이메일을 꼭 봤어야 했는지 의문이 들긴 하네요 그게 대시보드가 있는 이유니까요 언제 사용하는 지는 이를 이해하는데 중요하지만 앱에서 뭘 사용하는 지도 못지 않게 중요하죠 TV를 보는 것과 같아요 기나긴 하루 끝에 좋아하는 쇼를 보는 건 꽤 기분 좋은 일이잖아요 하지만 교양 방송을 보는 건 왜 내가 다른 걸 하지 않았을까 의문이 들게 하죠 많은 개발자들이 이 개념을 '의미있는 일'이라고 부릅니다 많은 개발자들과 가깝게 일하면서 사람들이 건강한 방식으로 기술을 사용하게 돕자는 목표를 공유했습니다 그래서 안드로이드 P에서는 개발자들이 좀 더 세밀하게 앱에서 쓰는 시간을 분석해서 새로운 대시보드를 만들었습니다 예를 들어보겠습니다 유튜브는 딥 링크를 추가해서 모바일과 데스크탑을 통합한 총 감상 시간과 피차이CEO가 이전에 언급했던 유용한 도구들을 이용할 수 있게 할 겁니다 이해하는 건 좋은 시작이죠 하지만 안드로이드 P는 여러분에게 통제권을 줍니다 어떻게 그리고 언제 휴대폰을 쓸 지 여러분이 관리할 수 있게 돕습니다 좋아하는 앱이 있으시겠죠 하지만 여러분이 그 앱에 쓰는 시간은 느끼시는 것보다 훨씬 많습니다 안드로이드 P는 앱에서 쓸 시간을 제한할 수 있고 그 제한이 다가오면 여러분에게 살짝 알려줍니다 다른 걸 할 시간이라구요 그리고 남은 하루 동안 그 앱 아이콘은 비활성화되어 여러분의 목표를 상기시켜 줍니다 사람들이 말했던 또 다른 것은 참석한 식사자리나 회의에 완전히 집중하기가 어렵다는 겁니다 기기가 보여주는 알림이 방해가 되지만 거부하기 힘들다는 거죠 그렇죠? 다들 경험 있으시잖아요 그래서 우리가 만든 개선사항은 방해금지 모드입니다 전화나 문자뿐 아니라 시각적인 방해를 하는 화면 팝업도 없애줍니다 방해금지 모드 사용을 더 간편하게 하기 위해 새로운 제스처를 만들었습니다 애정을 담아 쉿이라고 이름지었죠 만약 휴대폰을 탁자에 뒤집어두면 자동으로 방해금지 모드에 들어갑니다 현재에 집중하고 핑 소리나 진동, 다른 방해가 없게요 당연히 응급상황을 대비해서 우리 삶의 주요 인물들의 연락은 받고 싶잖아요 배우자나 아이 학교같은 곳이요 안드로이드 P가 연락처 목록을 만들어드립니다 언제나 전화가 울려서 방해금지 모드에도 금지되지 않는 연락처들이죠 마지막으로 많은 사람들이 보통 잠자리에 들기 전에 휴대폰을 확인한다는 이야기를 들었습니다 그러면 알아차리기도 전에 한 두시간이 금방 지나가버리죠 솔직히 저도 최소한 일주일에 한 번은 그렇습니다 숙면을 취하는 건 중요하잖아요 기술은 그걸 도와줘야지 방해해서는 안 됩니다 그래서 와인드 다운 모드를 만들었습니다 구글 어시스턴트에게 잠 잘 시간을 말해놓으면 그 시간이 되었을 때 방해금지 모드로 바뀝니다 화면도 흑백 모드로 바뀌게 됩니다 뇌에 훨씬 적은 자극을 주죠 그리고 여러분이 휴대폰을 내려놓는 데 도움을 줄 겁니다 간단한 아이디어지만 컬러 TV 이전으로 돌아간 앱들을 보면서 제가 얼마나 빨리 휴대폰을 내려놓는 지 보면 놀라운 일이죠 걱정 마세요 아침에 일어나면 색은 다시 돌아옵니다 지금까지 디지털 웰빙과 관련한 기능을 몇 개 훑어 봤습니다 안드로이드 P는 이번 가을에 구글 픽셀과 함께 나올 예정입니다 디지털 웰빙은 우리에게 장기 테마가 될 겁니다 앞으로도 많이 기대해 주세요 지능, 단순함, 디지털 웰빙이라는 데이브와 제가 말한 세 가지 테마 뿐만 아니라 말 그대로 수백개의 개선사항들이 다가오는 안드로이드 P에서 보여질 겁니다 특히 플랫폼에 더한 보안 개선이 제일 기대되네요 그것에 대해서는 목요일에 열리는 안드로이드 보안 세션에서 자세히 알게 되실 겁니다 여러분의 가장 큰 의문은 '다 좋아' '근데 이걸 내가 어떻게 해 볼 수 있지?'일 겁니다 그래서 오늘 안드로이드 P 베타 버전이 발표됩니다 안드로이드 오레오에서 한 노력으로 OS 업그레이드를 쉽게 할 수 있어서 안드로이드 P 베타 버전은 구글 픽셀에서 이용 가능합니다 또한 일곱 개의 제조사 주력 기기에서도 오늘부터 이용 가능해질 겁니다 이 링크에 가셔서 여러분의 기기에 베타 버전을 받는 법을 알아 보시고 우리에게 여러분의 생각을 알려주시기 바랍니다 그럼 안드로이드의 새로운 것들 소개를 마치고 지도에 대해 얘기할 수 있게 젠을 소개하겠습니다 감사합니다 지도는 우리를 안내하고 연결시킵니다 구글은 그들이 한 번도 가보지 않은 곳의 지도를 만듭니다 그것이 어디이든 모든 사람들을 위해 덕분에 나이지리아가 변화했고 여러분도 여기에 함께 할 수 있습니다 목적지에 대한 지식으로 무장할 수 있다는 것은 당신도 다른 사람들처럼 목적지에 다다를 수 있다는 뜻입니다 두 번의 지진이 연속적으로 멕시코 시티를 강타했습니다 구글 지도가 이런 응급상황에 대처할 수 있게 도와줬죠 허리케인이 휴스턴을 섬으로 만들고 길은 수시로 바뀌었습니다 우리는 "구글이 있어서 다행이다"라고 계속 말했습니다 없었으면 우리가 뭘 할 수 있었을까요? 정말 멋진 일인 것 같아요 사람들이 좋아하는 일을 할 수 있게 그리고 해야 할 일을 할 수 있게 그들을 도와준다는 것은요 구글 지도 책임자 젠 피츠패트릭 기술을 만드는 것은 현실의 사람들의 일상을 돕기 위해서입니다 이것이 구글이 누구이고 무엇에 주력하는지를 결정하는 지에 있어서 처음부터 주안점이었습니다 최근 AI과 컴퓨터 비전의 발전은 우리의 오랜 상품들에도 극적인 진전을 가져왔습니다 구글 지도같은 상품이죠 또한 새로운 상품을 만드는 데도 도움을 줬는데 구글 렌즈같은 상품입니다 구글 지도부터 시작해봅시다 지도는 모두를 돕기 위해 만들어졌습니다 세계 어느 곳에 있든 상관없이요 우리는 220개의 국가와 영토를 지도화하고 수억개의 회사와 장소들을 지도에 표시했습니다 그 작업을 하면서 십억이 넘는 사람들에게 길을 잃어버리지 않고 세계를 여행할 수 있다는 자신감을 심어주었습니다 하지만 아직 끝은 멀었습니다 우리는 지도를 좀 더 똑똑하고 좀 더 상세하게 하려고 노력했는데 AI의 발전은 이를 가속화시켜줬습니다 이제는 거리 뷰와 위성 사진에서 새로운 주소, 회사, 건물들을 자동으로 추출하여 지도에 직접 추가할 수 있습니다 정식 주소가 없는 시골이나 여기 라고스처럼 빠르게 변하는 도시에서는 중요한 일이죠 지난 몇 년 동안 말 그대로 지도를 아예 바꿔야만 했어요 안녕하세요 나이지리아 만약 새로운 사업을 시작하시려고 한다면 얼마나 붐비는지 대기 시간이 어느 정도인지 심지어 사람들이 얼마나 오래 머무는지까지 알 수 있습니다 나가기 전에 주차가 쉬울지 어려울지를 알려주고 주차 공간을 찾는 데 도움을 줄 수도 있죠 이제 교통수단에 따라서 다른 길을 안내할 수 있습니다 오토바이를 타는지 차를 운전하는지에 따라서요 각 교통수단의 속도를 이해함으로써 모두에게 더 정확한 교통 예측를 해 줄 수 있게 됐죠 이건 지도가 할 수 있는 것의 겉핥기일 뿐입니다 원래 우리가 지도를 설계한 것은 여러분이 스스로의 위치를 파악하고 목적지로 가는데 도움을 주기 위해서였습니다 하지만 지난 몇 년간 사용자들이 지도에 점점 더 많은 것을 요구했습니다 그들 주변의 세상에 대해 점점 더 어려운 질문들을 물어왔죠 그리고 더 많은 일을 하려고 했습니다 오늘날 우리 사용자들은 목적지로 가는 최단거리 뿐만 아니라 주변에는 무슨 일이 있는지 새로운 장소는 어떤지 그리고 현지인이 자주 가는 곳이 어디인지 같은 것까지 궁금해합니다 세상은 신나는 일들로 가득합니다 스포츠 바에서 좋아하는 팀을 응원하거나 동네 식당에서 편안하게 친구나 가족과 저녁을 먹는 일들이죠 세상이 제공하는 일들을 여러분이 쉽게 알아보고 경험할 수 있도록 해 주고 싶습니다 구글 지도를 업데이트하면서 여러분이 관심 가지는 지역에서 새로운 것이나 유행을 계속 알 수 있게 하도록 열심히 노력했습니다 여러분에게 최적화된 장소를 상황과 관심사에 맞게 찾아드립니다 어떤 모습일지 예시들을 보여드릴텐데 소피아의 도움을 좀 받아보겠습니다 첫 번째, 포 유라는 탭을 추가했습니다 여러분이 관심 가지는 동네에 관해 알아 둘 만한 것들을 알려주도록 설계되었습니다 새로 개장하는 곳이나 지금 유행하는 것들 그리고 맞춤형 추천장소 같은 거요 여기 보시면 저한테 주변에 막 개장한 카페를 알려주네요 스크롤을 내리면 이번 주에 인기가 많은 식당 목록이 보이네요 굉장히 유용하죠 아무 힘을 기울이지 않고도 지도가 일상에서 벗어나 새로운 것을 시도하도록 자극하는 아이디어를 주니까요 하지만 이 장소가 저에게 맞다는 걸 어떻게 알 수 있을까요? 좋은 평가를 받은 장소들을 둘러보면서 내가 분명히 좋아할 만하고 꽤 괜찮은 것들이 많겠다고 생각했지만 정확히 어떤 게 좋은지 말할 수 없었던 경험이 있지 않나요? 우리가 유어 매치라는 점수를 만들었습니다 여러분이 좋아할 만한 장소를 찾는 데 도움을 주기 위해서죠 유어 매치는 머신 러닝을 사용하여 내가 추가해 놓은 정보들과 구글이 알고 있는 수억개의 장소들을 결합해줍니다 내가 평가한 식당들, 내가 좋아한 요리들, 내가 가 봤던 장소들 같은 정보죠 매치 숫자를 클릭하면 왜 당신에게 이것을 추천하는지 그 이유를 알려줍니다 당신만을 위한 장소 점수인 거죠 초기 테스터들이 정말 좋다고 평가했습니다 이제 여러분은 최고의 장소를 자신감 있게 고를 수 있습니다 미리 계획을 했든 그냥 떠나서 바로 결정을 해야 하든 상관 없이요 소피아 고마워요 포 유 탭과 유어 매치 점수는 여러분이 잘 알고 있게 해 주고 자신감 있게 장소를 선택하게 해 주는 방법의 좋은 예시입니다 사용자들에게서 자주 듣는 또 다른 불만사항은 다른 사람과 계획을 짜는 것이 진짜 힘들다는 거죠 그래서 함께 장소를 고르기 쉽도록 만들었습니다 쓰는 방법은 이렇습니다 최종 명단에 올리고 싶은 어떤 장소든 길게 누릅니다 저는 언제나 라멘을 추천하지만 제 친구들은 각자 다른 의견이 있다는 것을 알고 있습니다 그래서 선택권을 주기 위해 다른 선택지들을 추가하죠 좋아하는 장소들을 충분히 더했다면 목록을 친구들과 공유해서 친구들 의견을 더합니다 몇 번 탭하기만 하면 쉽게 공유할 수 있슴니다 여러분이 선호하는 어떤 플랫폼에서든 가능하죠 그리고 나면 친구들이 원하는 장소를 추가할 수도 있고 한 번의 간단한 클릭으로 투표하여 모임 장소를 빠르게 결정할 수 있습니다 이제는 링크들을 복사하고 붙여넣기 하는 대신에 서로 문자를 주고 받으면서 결정을 빠르고 쉽고 재미있게 내릴 수 있습니다 이건 새로운 지도 기능들을 일별한 것 뿐입니다 새로운 지도는 이번 여름 늦게 안드로이드와 iOS 모두에서 출시됩니다 우리는 이것이 주변 지역부터 머나먼 세계의 구석까지에서 여러분이 계속 더 나은 결정을 내리고 새로운 시각으로 세상을 경험하는 데 도움을 주기 위해 지도가 할 수 있는 일들의 시작점일 뿐이라고 생각합니다 이런 발견은 소규모 가게들이 없었다면 불가능했을 겁니다 왜냐하면 사람들이 새로운 장소를 발견하도록 도와줄 때 새로운 소비자들이 그 지역 사업을 발견하는 것도 돕고 싶거든요 주변 지역의 빵집이나 구석진 곳의 이발소같은 가게입니다 이런 가게들은 우리 공동체의 근간입니다 진심으로 그들이 구글과 함께 성공할 수 있게 도울 것을 약속합니다 매달 우리는 사용자들을 주위의 가게들과 90억 번이 넘게 연결해줍니다 10억 번의 전화와 30억 번의 길 찾기 요청을 포함한 숫자입니다 지난 몇 달간 우리는 심지어 몇몇 도구를 더했습니다 지역의 가게들이 의미 있는 방식으로 소비자들과 의사소통하고 관계를 맺게 해 주는 도구입니다 당신이 좋아하는 가게들의 이벤트나 제안들에 대한 일일 포스트를 볼 수 있습니다 조만간 그것에서 더 업데이트되어 새로운 포 유의 흐름을 볼 수 있을 겁니다 여러분이 준비가 되었다면 간편하게 한 번의 클릭으로 예약을 하거나 주문을 할 수 있습니다 기술이 모두에게 기회를 주는 것을 보면 언제나 고무됩니다 지난 13년간 우리가 모든 길, 모든 건물, 모든 가게들을 지도화하는데 투자한 이유는 이게 중요한 일이기 때문입니다 우리가 세계 지도를 만들었을 때, 지역 사회는 살아 숨쉬고 우리가 절대 불가능하리라 생각했던 장소들에서의 기회가 생겼습니다 컴퓨팅이 진화함에 따라 우리는 새롭게 생각하도록 계속 스스로 도전해왔습니다 현실에서 여러분의 일을 돕기 위해서였습니다 무대로 아파르나를 모셔서 우리가 구글 지도나 다른 곳에서 어떤 일을 하는지 알려드리겠습니다 구글 VR·AR 부사장 아파르나 첸나프라가다 우리 스마트폰의 카메라는 우리를 주변 세상과 굉장히 직접적으로 연결해줍니다 순간을 저장하고, 추억을 포착하고, 의사소통하게 도와줍니다 하지만 피차이CEO가 말했듯이 컴퓨터 비전과 AI의 진보에 따라 우리는 질문하게 되었습니다 "카메라가 더 많은 것을 할 수 있다면 어떨까?" "카메라가 질문에 대답하는 데 도움을 줄 수 있을까?" 그 질문들은 "어디로 가는 거지?"나 "내 앞에 뭐가 있지?"같은 거죠 익숙한 광경을 그려볼게요 당신은 지하철을 빠져나왔습니다 이미 약속시간이나 기술 회사 회의에 늦어버렸죠 종종 있는 일들이잖아요 그 때 휴대폰이 말하죠 '마켓가에서 남쪽으로 가세요' 그럼 어떻게 해야 하죠? 한 가지 문제는 어느 쪽이 남쪽인지 알 수 없다는 거죠 그러면 휴대폰을 내려다보고 지도상의 파란 점을 보죠 걸으면서 그 점이 옳은 방향으로 움직이는지 확인합니다 그렇지 않다면 반대 방향으로 걸어야죠 우리 모두 그런 적 있잖아요 그래서 우리는 자문했습니다 "카메라가 이걸 도와줄 수 있을까?" 우리 팀은 정말 열심히 작업했습니다 카메라와 컴퓨터 비전의 힘과 거리 뷰와 지도를 통합하여 걸어다니는 내비게이션을 재구상했습니다 구글 지도에서 보여질 모습을 한 번 보시죠 카메라를 켜면 여러분은 바로 어디에 있는지 알 수 있습니다 휴대폰과 싸울 필요가 없죠 지도상의 모든 정보나 거리 이름과 방향들은 여러분 바로 앞에 있을 겁니다 지도도 볼 수 있어서 계속 위치를 확인할 수 있죠 주변 장소들도 볼 수 있어서 주변에 뭐가 있는지 알 수 있죠 그리고 재미를 위해서 우리 팀이 유용한 가이드를 더하자는 아이디어를 냈어요 지금 보시는 거 같은 거죠 방향을 알려줄 겁니다 저기 지나가네요! 아주 멋있죠 이제 이런 경험들이 가능해졌지만 GPS 혼자서는 이것을 편집할 수 없습니다 그래서 우리는 VPS에서 작업을 해왔습니다 시각 위치 확인 서비스로 정확한 위치와 방향을 측정해줍니다 여기에서 주안점은 여러분이나 저나 익숙하지 않은 장소에서는 시각적인 랜드마크를 찾는다는 거죠 가게 앞이나 건물 정면 같은 걸요 그것과 같은 아이디어죠 VPS는 주변 환경의 시각적인 특징을 사용해서 같은 일을 합니다 정확히 어디 있는지 알려주고 정확히 어디로 가야 할 지 알려줘서 우리가 여러분을 돕게 해줍니다 아주 좋죠 우리가 지도에서 카메라를 이용해서 여러분을 도와주는 방법이었습니다 하지만 우리는 카메라가 여러분이 보는 것을 통해 더 많이 도울 수 있다고 생각했습니다 그게 바로 우리가 구글 렌즈 연구를 시작한 이유입니다 사람들은 이미 많은 답을 찾기 위해 구글 렌즈를 사용하고 있습니다 특히 질문이 말로는 설명하기 어려운 종류일 때는 더 그렇죠 '공원에서 본 그 귀여운 개는 뭐지?' 같은 질문에 대한 답입니다 래브라두들이죠 아니면 시카고에 있는 이 건물은 리글리 빌딩이고 높이는 130미터입니다 아니면 요새 제 9살 아들이 말하듯 할 수 있겠죠 "케빈 듀란트가 60명 넘게 서 있는 거랑 같네?" 오늘날의 렌즈는 구글 제품에서 사용할 수 있습니다 포토나 어시스턴트같은 제품이요 하지만 다음 주부터는 렌즈가 카메라 앱에 바로 삽입되어 픽셀이나 새로운 LG G7, 그리고 더 많은 기기들에서 사용 가능해질 겁니다 이렇게 하면 훨씬 더 쉽게 카메라로 바로 앞에 있는 것에 구글 렌즈를 사용할 수 있습니다 아주 많이 기대되네요 이와 비슷하게 비전은 컴퓨팅에 있어서 근본적인 변화입니다 많은 시간이 필요로하겠지만 우리는 이미 많은 진보를 이루었습니다 그래서 오늘 제가 구글 렌즈의 세 가지 새로운 기능을 보여드리겠습니다 더 많은 유형의 질문에 더 많은 답을 더 빠르게 줄 수 있을 겁니다 한 번 보실까요? 좋아요! 자, 첫 번째입니다 렌즈가 단어를 인식하고 이해할 수 있습니다 단어는 어디에나 있죠 생각해보면 교통 표지판, 포스터 식당 메뉴, 명함같은 것도요 하지만 스마트 텍스트 선택과 함께라면 보이는 단어들을 필요로 하는 답과 행동으로 이어줄 수 있죠 그래서 복사하고 붙여넣기를 현실에서 바로 휴대폰으로 할 수 있죠 바로 이렇게요 아니면 이걸 보고 있다고 합시다 단어가 가득한 페이지들을 답이 가득한 페이지로 바꿀 수 있죠 예를 들어서 식당 메뉴를 보다가 빠르게 탭을 해주면 모든 요리들을 알아낼 수 있습니다 어떻게 생겼고 어떤 게 들어가는지 같은 걸요 그건 그렇고 채식주의자로서 라따뚜이에 주키니와 토마토만 들어간다는 걸 알게 되서 좋더군요 진짜 좋죠 이런 예시들을 통해서 렌즈가 시각적으로 기호나 글자의 모양을 이해할뿐만 아니라 단어 뒤의 문맥을 이해하려고 노력한다는 것을 알 수 있습니다 거기서 바로 스콧이 말했던 모든 언어가 이해된다는 것이 진짜 도움이 되는 거죠 제가 다음으로 말할 기능은 스타일 매치라는 기능입니다 아이디어는 이렇죠 가끔 여러분이 하는 질문은 "오, 이 정확한 사물은 뭐지?"보다는 "이런 게 뭐지?"에 가깝습니다 친구 집에 있는데 이 유행하는 램프를 봤습니다 그리고 이 스타일과 비슷한 것들을 알고 싶습니다 이제 렌즈가 여러분을 도와줄 수 있습니다 시선을 끄는 옷을 봤다면 그저 카메라를 켜고 어떤 아이템이든 클릭하세요 그러면 당연히 구체적인 정보를 찾아낼 수 있을 겁니다 그 특정 물건에 대한 후기같은 거죠 하지만 그 외에도 그 스타일과 비슷한 모든 것들을 보고 찾을 수 있습니다 두 가지 부분이 있습니다 렌즈는 수백만 개의 물건을 검색해야만 하죠 하지만 우리는 검색을 어떻게 하는지 알고 있잖아요 하지만 다른 부분은 사실 복잡한 것들입니다 질감이나 모양, 크기, 각도, 조명같은 것들이 다를 수 있잖아요 기술적으로 어려운 문제입니다 하지만 우리는 기쁘게도 이 부분에서 많은 진보를 이루었습니다 이제 제가 오늘 말할 마지막은 어떻게 렌즈가 실시간으로 작동하게 만들었냐는 겁니다 스타일 매치의 예시에서 보셨다시피 카메라를 켜서 보기 시작하면 즉각적으로 렌즈가 모든 정보를 주도적으로 보여줍니다 심지어 여러분이 보는 것들의 정보를 고정시켜 놓기도 합니다 이런 것들은, 수십억 개의 단어, 구문, 장소, 물건들을 샅샅이 조사하는 것들은 여러분이 필요로 하는 것을 실시간으로 제공하기 위한 것으로 머신 러닝이 없다면 불가능하죠 우리는 기기의 지능만이 아니라 클라우드 TPU의 힘까지 두 개 모두를 사용합니다 클라우드 TPU는 작년 개발자 회의에서 발표한 것으로 이를 완성했죠 정말 신나네요 시간이 지나면서 우리가 하고 싶은 것은 모든 것들 위에 직접적으로 생생한 결과를 오버레이하는 것입니다 가게 앞이나 거리 표지판, 콘서트 포스터같은 것들 위에요 그래서 휴대폰을 찰리 푸스의 콘서트 포스터에 그저 대기만 하면 뮤직 비디오가 바로 재생되는 것처럼 그런 일들을 하고 싶어요 카메라가 단순히 질문의 대답을 해주는 것뿐만 아니라 질문이 있는 곳에 대답을 넣어주는 예시입니다 매우 흥미로운 일이죠 스마트 텍스트 선택 스타일 매치, 실시간 결과들이 몇 주 안에 렌즈에서 출시됩니다 계속 지켜봐 주세요 구글이 어떻게 카메라에 AI를 적용시켜 여러분 주변의 일을 해결할 지에 대한 예시들이었습니다 AI와 지도 제작, 컴퓨터 비전을 현실의 문제 해결에 적용시키려면 자율주행차량보다 더 현실적인 것은 없을 겁니다 여기에 대해 말씀드리기 위해 웨이모의 CEO인 존 크라프시크씨를 모시겠습니다 감사합니다 모두들 안녕하세요! 웨이모CEO 존 크라프시크 오늘 구글의 친구들을 무대에서 만나게 되어 너무 즐겁네요 저는 이번에 쇼어라인에 처음으로 오게 됐지만 우리 자율주행차는 처음이 아닙니다 2009년에 이 씨어터 바로 바깥 주차장에서 처음으로 자율주행기술의 시험들이 이루어졌습니다 구글의 기술자들, 로봇 연구가들과 연구자들이 있는 이 곳에서 차들이 스스로 운전할 수 있다는 것을 실제로 검증하기 위한 말도 안 되는 미션이 시작되었습니다 그 당시에는 대부분의 사람들이 자율주행차에 대해서 공상 과학일 뿐이라고 생각했습니다 그러나 이 헌신적인 몽상가들은 자율주행차량이 모두에게 교통을 더욱 안전하고 간편하고 접근 가능하게 할 것을 믿었습니다 그렇게 구글의 자율주행차량 프로젝트가 시작되었습니다 빠르게 2018년으로 돌아와서 구글의 자율주행차량 프로젝트는 이제 웨이모라고 불리는 독립적인 알파벳의 자회사입니다 손보고 연구하는 것을 넘어서 발전해왔습니다 오늘날 웨이모는 전세계에서 유일하게 공공 도로에서 운전석에 아무도 없이 운전하는 완전한 자율주행차량 군단을 갖췄습니다 애리조나주 피닉스의 사람들은 이미 완전한 자율주행을 경험해 봤습니다 한 번 보시죠 자율주행 첫 날입니다 준비됐나요? 갑시다! 기분이 좀 이상하네요 이것이 미래입니다 저 여자분을 보세요 "아무도 운전 안 하고 있는데?" 알고 있었어! 이걸 기다렸지 아무도 운전을 안 한다는 걸 전혀 몰랐어요 요! 자동차! 셀카찍자! 자동차야, 고마워 자동차야, 고마워 아주 멋있죠 여기 나오신 분들은 웨이모의 초기 탑승 프로그램 참가자들입니다 일상에서 우리 자율주행차를 사용한 일반인들이시죠 작년 한 해 동안 이 초기 탑승자들과 얘기를 나눌 기회가 있었습니다 그 분들의 이야기는 굉장히 고무적인 것들이었습니다 초기 탑승자들 중 한 명인 네하는 어렸던 십대 시절에 비극적인 사고를 목격했습니다 네하가 운전면허를 따기 무섭게 만들었습니다 하지만 이제 네하는 매일 웨이모를 타고 출근합니다 짐과 바바라는 더 이상 늙어서 돌아다닐 힘이 없을 때를 걱정할 필요가 없습니다 그리고 잭슨 가족이 있습니다 웨이모는 빽빽한 잭슨 가족의 스케쥴을 진행시켜 줍니다 카일라와 요셉을 학교 통학과 친구들과의 연습이나 만남에 데려다줍니다 이제 공상 과학이 아니죠 자율주행기술을 만들 때 우리가 목표로 한 사람들이 바로 이런 사람들입니다 2018년에 들어서 자율주행차량은 벌써 사람들의 삶과 행동을 바꿨습니다 피닉스가 웨이모의 운전자 없는 교통 서비스의 첫 번째 무대가 되어 올 해 하반기에 출시될 것입니다 조만간 누구나 우리 앱을 사용해서 웨이모를 부를 수 있게 될 겁니다 완전한 자율주행차량이 멈춰 서면 아무도 운전석에 없지만 목적지까지 데려다줄 겁니다 이건 그저 시작일 뿐이죠 왜냐하면 웨이모에서 우리는 단지 더 나은 차를 만드는 것이 아니라 더 나은 운전자를 만드는 것이기 때문입니다 그리고 그 운전자는 모든 앱에서 사용될 수 있을 것입니다 택시 요청, 물류, 개인 차량이나 대중 교통수단과 사람들을 연결시켜주는 데까지도요 우리의 기술은 이 모든 다른 산업들에서 사용 가능하다고 생각합니다 많은 회사들과 동업하여 자율주행의 미래가 모두의 현실이 되도록 하겠습니다 그리고 이 미래는 우리가 AI에 했던 투자와 AI의 약진으로 가능해졌습니다 옛날을 돌아보면 구글은 아마도 그 당시에 이 세상에서 유일하게 AI와 자율주행기술에 동시에 투자한 기업일 겁니다 구글이 음성 인식, 컴퓨터 비전, 이미지 검색 등을 통해서 머신 러닝에 주요 진보를 만들기 시작했을 때 웨이모는 그 수혜를 받을 특별한 위치에 자리했습니다 예를 들면, 2013년에 우리는 보행자 탐지의 돌파구가 될만한 기술을 찾고 있었습니다 다행스럽게도 구글은 딥 러닝이라는 새로운 기술을 이미 효율적으로 사용하고 있었습니다 딥 러닝은 머신 러닝의 한 종류로 다양한 층에 신경망을 만들어 좀 더 복잡한 문제를 해결할 수 있게 합니다 그래서 우리의 자율주행 기술자들은 구글 브레인 팀의 연구원들과 팀을 이루어서 겨우 몇 달만에 보행자 탐지의 오류 발생률을 100배 줄였습니다 네 100%가 아니라 100배요 그리고 오늘날

감사합니다 오늘날 AI는 자율주행 시스템에서 더욱 큰 역할을 하고 있습니다 우리의 능력을 개방하여 진정한 자율주행을 만들어냈습니다 머신 러닝이 현재 길거리에서 보이는 안전하고 능숙한 웨이모의 운전자들을 어떻게 머신 러닝이 만들어냈는지 더 자세히 알려드리기 위해 드미트리를 소개하겠습니다 감사합니다 웨이모 자율주행 기술 총괄 드미트리 돌고프 좋은 아침입니다 이 자리에 서게 되어 영광입니다 웨이모에서 AI는 우리 시스템의 모든 영역을 관장합니다 인지에서 예측으로, 의사 결정으로, 지도 제작으로 그리고 더 많은 것들까지도요 유능하고 안전한 운전자가 되기 위해서는 우리 차량은 주변 세상을 의미론적으로 깊게 이해해야만 합니다 우리 차량은 물체를 이해하고 분류해야만 하고 물체의 움직임을 분석하고 그 의도를 판단하고 앞으로 뭘 할 것인지 예측할 수 있어야 합니다 각각의 물체들이 다른 것들과 어떻게 상호작용할 지 이해해야만 합니다 그리고 마지막으로 우리 차량은 모든 정보를 이용해서 안전하고 예측가능한 방식으로 작동해야만 합니다 그래서 말할 필요도 없이 자율주행차량을 만드는 데는 많은 것들이 요구됩니다 오늘 제가 말 할 두 영역은 AI가 큰 영향을 준 영역으로 인지와 예측입니다 첫 번째, 인지입니다 물체를 탐지하고 분류하는 건 운전에 있어서 중요한 부분입니다 특히 보행자들은 특별한 시련을 만들어주는데 다양한 형태와 자세, 크기로 나타나기 때문입니다 예를 들어서 건설업 종사자가 맨홀 밖을 쳐다보고 있습니다 몸의 대부분은 보이지 않겠죠 여기는 길을 지나는 보행자가 나무 판자에 가려져있네요 그리고 여기를 보시면 보행자가 공룡 옷을 입고 있네요 우리는 차에게 쥬라기 시대에 대해서 가르쳐주지 않았습니다 하지만 여전히 차는 그것들을 올바르게 분류할 수 있습니다 이 보행자들을 탐지하고 분류할 수 있는 이유는 딥 넷을 적용하여 센서 데이터를 통합했기 때문입니다 전통적으로 컴퓨터 비전에서 신경망은 카메라 이미지와 영상에서만 이용되었습니다 하지만 우리 차는 카메라보다 훨씬 많이 가지고 있죠 물체의 형태와 거리를 짐작할 수 있는 레이저와 물체의 속도를 계산할 수 있는 레이더도 장착되어 있죠 머신 러닝을 이 통합된 센서 데이터에 적용시킴으로써 어떤 형태의 보행자든 실시간으로 정확하게 탐지할 수 있습니다 머신 러닝이 웨이모를 위해 놀랍게 큰 일을 해 준 두 번째 영역은 도로 위의 사람이 어떤 행동을 할 지 예측하는 것입니다 사람들은 보통 우리의 예측대로 행동하지만 가끔씩은 그렇지 않습니다 여기 빨간불에 달리는 차의 예시를 보시죠 불행스럽게도 우리는 이런 일을 생각보다 자주 봅니다 이것을 자동차의 시점에서 분석해보겠습니다 차가 교차로에서 직진을 하려고 합니다 분명히 초록불이죠 그리고 교차로는 빨간불로 멈춰 있네요 하지만 교차점에 막 진입하는 순간 오른쪽에서 빠르게 다가오는 차량이 보이네요 우리 모델은 이것을 감속해야 할 차량의 이상 행동이라고 이해했습니다 차량이 빨간 불에도 계속 달릴 것으로 예측하고 우선 속도를 줄였습니다 여기 붉은 장애물에서요 빨간불에서도 달리는 차량에게 우리 앞으로 지나갈 공간을 준 거죠 다른 차량을 치는 걸 막기는 거의 불가능해 보이지만요 이런 종류의 변칙을 탐지할 수 있는 건 우리 ML 모델을 다양한 예시로 훈련시켜왔기 때문입니다 현재 우리 군단은 공공 도로에서 6백만 마일이 넘게 자율주행을 해봤습니다 실제 상황을 수억 개 이상 지켜볼 수 있었던 거죠 그런 관점에서 볼 때 우리는 매일 보통 미국인의 일 년 주행량보다 더 많이 운전을 한다는 거죠 그저 좋은 알고리즘보다는 더 많은 것이 자율주행차량에 필요합니다 굉장히 튼튼한 기반 시설도 필요하죠 웨이모에서는 텐서플로우 생태계와 TPU를 포함한 구글 데이터 센터를 이용하여 신경망을 훈련시켰습니다 이제 TPU를 이용해서 우리는 신경망을 15배 더 효율적으로 훈련시킬 수 있습니다 또한 이 튼튼한 기반시설을 이용하여 시뮬레이션에서 우리 모델을 입증했습니다 이 가상 세계에서 우리는 매일매일 이만 오천대의 차와 동일하게 주행을 했습니다 다하면 시뮬레이션에서 50억 마일 넘게 주행을 했죠 이 정도의 규모를 통해 우리 모델의 훈련과 입증 모두에서 빠르고 효율적으로 차량에 새 기술을 가르칠 수 있습니다 우리가 다루기 시작한 새 기술은 어려운 날씨에서의 자율주행입니다 여기 보시는 것처럼 눈이 오는 것 같은 날씨에서요 그리고 오늘 최초로 눈 속에서 자율주행하는 우리 차량이 어떤 모습인지 그 비밀에 가려진 모습을 보여드리겠습니다 이게 어떤 필터도 거치지 않았을 때 자율주행차가 보는 장면입니다 눈보라 속 주행은 어렵습니다 눈송이가 우리 센서에 많은 방해를 하기 때문이죠 하지만 머신 러닝을 이 데이터에 적용함으로써 우리 차량이 보는 것은 이런 모습입니다 우리는 분명하게 각 차량을 구분할 수 있습니다 센서가 방해되는 데도 불구하고요 이런 진보된 능력들을 빨리 공개할수록 우리 자율주행차량들이 더 빠르게 전세계의 더 많은 도시들과 여러분 인근 도시에 보급될 겁니다 우리 자율주행차량이 더 많은 사람들에게 보급되고 도로가 모두에게 더 안전하고 쉽고 접근하기 편한 곳이 될 미래로 우리를 데려다줄 날이 기다려집니다 여러분 감사합니다 이제 젠을 다시 무대로 불러서 우리의 아침 세션을 마치도록 하겠습니다 드미트리 고마워요 AI가 언제나 새로운 방식으로 사람들을 돕는 일에 대해 알아볼 수 있어 좋았습니다 제가 구글에 기술 인턴으로 입사한 게 거의 19년 전이네요 첫 날 문을 열고 들어갔을 때부터 제가 항상 생각하는 것은 기술의 영역과 기술의 가능성 확장에 헌신할 것이었습니다 사람들의 실제 삶에 영향을 줄 제품들에 주력하는 것과 함께요 그리고 세월이 지나면서 저는 여러번 목격했습니다 어떻게 기술이 실제로 변화된 역할을 수행하는 지를요 검색이나 지도같은 제품 초기에서 구글 어시스턴트같은 새로운 영역으로 변화했죠 오늘날의 구글을 보면 그 초기의 가치가 여전히 살아 숨쉬고 있는 것을 볼 수 있습니다 우리는 계속해서 여러분과 함께 모두를 위한 제품과 중요한 제품을 만드는데 전념하겠습니다 우리 스스로의 목표를 더 높이고 책임감 있게 사회와 세상에 공헌하도록 지속적으로 포부를 품겠습니다 진짜 모두를 위한 제작을 하려면 다양한 관점들이 혼합되어야 합니다 그게 바로 우리가 올해 개발자 회의를 확대하여 더 많은 목소리들을 들으려고 한 이유입니다 남은 삼일간 추가 연설자들을 초대하여 디지털 웰빙 촉진에서부터 NGO의 미션 달성을 돕는 것까지 모든 분야에서 확장된 역할을 수행하는 기술에 대해서 모두 말해드리겠습니다 물론 그 뿐만 아니라 여러분이 개발자 회의에서 기대한 수백개의 기술 얘기도 있습니다 여러분이 즐기시고 배워가셨으면 좋겠습니다 2018년 개발자 회의에 오신 것을 환영합니다 부디 즐겨주세요 다음 며칠간 자극을 얻으셔서 모두를 위해 좋은 것을 만드는 일을 지속하시기를 바랍니다 감사합니다

AI Adventures: art, science, and tools of machine learning (Google I/O ’18)

[음악 재생] YUFENG GUO : 아침 내 이름은 Yufeng Guo이고 YouTube에서 비디오 시리즈를 진행합니다

인공 지능 어드벤처 (AI Adventures)라는 곳에서는 예술, 과학, 기계 학습 도구 저는 오늘 그곳에있는 작은 조각을 직접 가져오고 싶었습니다 그럼 함께 인공 지능 모험을 떠나 봅시다 이 세션의 목적을 위해, 먼저 기계 학습에 대한 짧은 정의부터 시작해 보겠습니다 그것을 사용하여 워크 플로우를 구축하십시오

도구에 들어가십시오 우리는 오늘 그것을 사용하여 도움을 줄 것입니다 우리는 기계 학습 문제를 어떻게 해결할 수 있는지보고 있으며, 문제를 해결하는 데 어떻게 활용할 수 있는지 알아보십시오 I / O 외부 그래서 우리는 기계 학습을 말할 것입니다 데이터로 프로그래밍하고 있습니다

그리고이 데이터를 사용하여 시스템 또는 모델을 생성합니다 어떤 일을하도록 훈련 받았다 그리고 우리는 데이터를 사용하여 매우 중요한이 모델을 교육합니다 그리고 모든 것이 다시 데이터로 돌아옵니다 이것이 실제로 기계의 첫 번째 단계입니다

학습 – 데이터 수집 그것은 모두 중심에 있고 거기에서 시작됩니다 다음으로, 일반적으로 일종의 준비가 있습니다 해당 데이터가 필요합니다 원시 데이터는 종종 사용하기에 적합하지 않습니다

그래서 우리는 조금 준비해야합니다 귀하의 기계 학습 준비가되기 전에 셋째, 모델을 선택해야합니다 우리는 그것을 사용하고, 훈련시키고, 평가하기를 원합니다 그 성능, 미세 조정, 마지막으로 그러한 예측을하십시오

그래서 우리는이 7 가지 단계를 각각 거치게됩니다 이 세션의 과정에서 먼저 질문을 봅시다 우리는 우리 모델을 사용하여 첫 번째 문제를 해결하려고 노력하고 있습니다 간단한 예제 데이터 세트를 살펴 보겠습니다 이 7 단계를 통해 분류 작업을 수행하십시오

동물에 관한 데이터 우리는 어떤 종류의 동물이냐고 말할 것입니다 일부 입력 데이터를 기반으로합니다 이것이 새입니까? 그것은 포유 동물인가? 그것은 파충류 물고기, 또는 양서류, 버그, 또는 무척추 동물? 이 7 가지 유형 중 하나 그리고 그것은 다양한 통계에 기초 할 것입니다

주어진 동물에 대해서 따라서 우리 모델은이 데이터,이 구조화 된 데이터, 그것을 사용하여 예측을 시도하십시오 -이 7 가지 중 하나 동물의 종류 이제 우리는 어떤 상황이 우리는 모델링을하고 있습니다 이 단계들을 더 자세히 설명합니다 우선, 데이터 수집 중입니다

우리는 어떤 문제인지 알고 있기 때문에 우리는 해결하려고 노력하고 있습니다 항상 그렇지는 않습니다 이를 해결하기 위해 필요한 데이터가 있음을 의미합니다 데이터가 없으면 모델이 아무 곳에도 없습니다 그래서 내 데이터가 어디에서 어떤 형식으로 살고 있는지 스스로에게 물어보십시오

어떻게해야합니까? 이들은 종종 초기 걸림돌이다 우리는 문제를 해결하고 해결하기 위해 데이터를 사용하려고 노력합니다 그리고 아마도 당신은 실제로 상황에 처해 있습니다 필요한 모든 데이터가없는 곳입니다 자신의 데이터를 수집해야합니다

이것은 또한 일반적인 사용 사례입니다 그리고 당신은이 문제를 푸는데 독창적이 될 수 있습니다 데이터 수집을위한 시스템을 구축함으로써, 아마도 당신은 그것을 게임으로 만들 것입니다 정말 재미있는 예가 Quickdraw입니다 Quickdraw는 온라인 게임으로 당신은 특정 그림을 그려서 시도합니다

네가 그리는 것을 예측하는거야 그래서 그것은 당신에게 농구를 그리거나 배를 그립니다 그리고 당신도 알다시피, 그것은 재미 있습니다 사람들은 그것을 좋아합니다 결과적으로 게임이 생성되었습니다

십억 개 이상의 손으로 그린 ​​이미지의 기념일 로고 전 세계에서 그리고이 데이터 세트는 GitHub에서 오픈 소스입니다 실제로 AI 모험 에피소드가 있습니다 이 데이터 세트를 사용하는 방법에 대해 자세히 알고 싶으면 놓으십시오 그걸 가지고 놀아 라

하지만 우리의 계단으로 돌아가 우리는 데이터를 수집했습니다 무엇 향후 계획? 우리는 그 데이터를 준비해야합니다 데이터 준비는 완전히 별도의 대화가 될 수 있습니다 여기서는 몇 가지 측면 만 다루겠습니다

어떤 종류의 기계 학습을하기 전에 데이터를 탐색하십시오 실제로 데이터를 더 잘 이해하는 데 도움이 될 수 있습니다 이것이 당신에게주는 것이기 때문에 이것은 근본입니다 데이터 세트에 대한이 직관, 당신에게 많은 시간과 두통을 줄 수 있습니다 나중에 그 과정에서

그래서 저는 사람들이 그들의 데이터를 청소하도록 권장합니다 데이터를보고 그것에 대해 어떤 종류의 직감을 얻으 려합니다 간격을 확인하는 데 도움이됩니다 그 길을 따라 일하는 것에 대해 많은 것을 배웁니다 그리고 실제로 더 많은 데이터가 필요하다는 것을 알게 될 것입니다

또는 수집 한 특정 데이터 결국 실제로 그렇게 유용하지는 않았습니다 이 작업을 수행하기 위해 내가 좋아하는 도구 중 하나는 Facets입니다 우리는 잠시 우회하여 그것에 대해 이야기 할 것입니다 패싯은 오픈 소스 데이터 시각화입니다 Google Research의 도구입니다

데이터 배포에 대한 더 나은 이해를 얻을 수 있습니다 그리고 네, 가능한 많은 도구가 있습니다 당신은 아주 비슷한 일을합니다 명령 및 호출 함수를 작성할 수 있으며, 하지만이 모든 것이 한 곳에서 이루어집니다 UI이기 때문에 잊지 않을 것입니다

특정 통계를 계산하는 것 또는 데이터의 일부를 살펴보십시오 그것은 모두 당신을 위해 계산 되었기 때문입니다 그냥 나타납니다 그래서, 당신은 그냥 찾아 볼 수 있습니다 여기에서 우리의 데이터 세트에 적용된 패싯을 볼 수 있습니다

동물원에서 나온이 동물들 중 대부분은 일종의 것들이며 제로 데이터 세트는 호흡합니까? 꼬리가 있습니까? 깃털이 있니? 그런 것들 그래서 우리는 이런 종류의 재미있는 분포를 0으로 보았습니다 ~ 1 그러나 숫자 배포판을 사용하는 많은 경우, 훨씬 더 흥미로운 것을 보게 될 것입니다 자, 기계의 세 번째 단계로 넘어 갑시다

학습 – 모델 선택 그리고 우리는 모델 선택에 대해 조금 논의 할 것이고, 우리가 이것을 사용하는 방법에 대해 가능한 최소한의 노력 그리고 먼저, 주위에 직감을 구축합시다 기계 학습 모델이 잘 작동합니다 그래서 여기에서 우리는 모델이 어떻게 시도 하는지를 봅니다

우리가 말하려고하는 지역을 나누기 위해, 어느 쪽이 파란색이고, 어느 쪽이 주황인지, 점들인 데이터와 일치시킵니다 따라서 세계에서 가장 어려운 사례는 아닙니다 권리? 모든 것이 이미 영원히 분리되어 있습니다 분리했다 그러나 좀 더 재미있는 것을 보도록하겠습니다

여기, 우리는 약간의 모델 투쟁을 본다 그 동그라미를 그리는 방법을 찾으려고 시도 할 때 파란색 점 주위 그리고 이러한 도구가 오늘 당신에게 사용 가능하며, 충분히 정교합니다 당신을위한 모든 사소한 부분을 다룰 수 있습니다 그래서 당신은 어떻게에 대한 세부 사항을 걱정할 필요가 없습니다

그것에 대해지고있다 그것은 그 일을 성취하는 것의 문제 일뿐입니다 그러나 보는 재미입니다 또한 서로 다른 모델이 서로 다른 종류의 데이터를 모델링 할 수 있습니다 복잡한 정도가 다르다

그래서 이것이 모델 선택이 실제로 무엇인지에 대한 것입니다 그것은 어떤 모델이 딱 맞는지를 보는 것입니다 특정 데이터 세트 및 특정 문제 당신은 풀려고 노력하고 있습니다 이제 구체적으로, 우리가하려고하는 것 이것을 달성하기 위해 TensorFlow를 사용합니다 그래서 TensorFlow에 관해 많은 이야기가 있습니다

여기에 I / O에서 올해, 그래서 그 비트를 rehash하지 않습니다 그러나 우리는 예를 들어, 아마도, TensorFlow를 사용하여 모델을 수행하는 모습 선택, 실제로 그 코드를 쓰려면, 특히 경험치가 너무 많지 않은 경우 TensorFlow와 함께, 이것은 친절 할 수 있습니다 얼마나 쉽게 접근 할 수 있는지에 대한 유용한 정보를 제공합니다 이것은 선형 분류 자의 예입니다 우리가 본 첫 번째 애니메이션과 비슷합니다

드로잉은 두 공간 사이에 선형 선이 좋습니다 그리고 우리는 그것이 매우 간단하다는 것을 알 수 있습니다 그러나 더 복잡한 데이터가 있다면 어떨까요? 이 한 줄 전화는 음, 일종의 전화를 유지합니다 당신이 다른 모델에서 그것을 시도 할 때 그래서 우리는이 것을 깊은 신경 네트워크로 대체 할 것입니다

몇 가지 작은 수정이 필요합니다 이 경우에는 추가 인수 하나를 추가해야합니다 숨겨진 단위라고합니다 이것은 우리 네트워크의 구조를 정의합니다 이 경우, 우리는 30, 20, 10 개의 뉴런이 있습니다

그래서, 우리가해야 할 일은 말 그대로, 그냥 이름 바꾸기 – 그 텍스트를 대체하고 하나의 인수를 추가하십시오 전체 시스템을 다시 연결할 필요는 없습니다 모든 것을 삭제하고 시작할 필요가 없습니다 기스로부터 그래서 그것은 정말로 산뜻합니다

그리고 시도 할 수있는 다른 모델과 비슷합니다 많은 사람들이 모델을 뒤집습니다 메소드 호출의 이러한 다양한 선택 메뉴로 놀 수 있습니다 그리고 그 패러다임에서 미리 모델에 커밋하지 않아도됩니다 한 번 시도해보고 어떻게 작동하는지보고 다시 돌아올 수 있습니다

이 7 단계 때문에, 그리고 당신은 다시 반복 할 수 있습니다 언제든지 돌아가서 돌아볼 수 있습니다 그래서 우리를 다음 단계로 인도합니다 우리는 데이터를 수집했습니다 우리는 그것을 준비했습니다

우리는 최소한 모델을 선택했습니다 그리고 지금, 우리는 훈련을 할 수 있습니다 교육은 많은 관심을 얻습니다 왜냐하면 그것은 어떤면에서 마법이 일어나는 곳이기 때문입니다 그러나 실제로, 그것은 종종 매우 간단합니다

너는 그냥 뛰게하고 기다린다 그럼 훈련 도중 무슨 일이 일어나는지 살펴 보겠습니다 코드에서 볼 수 있습니다 개념적으로 모델을 훈련 할 때 우리는 데이터를 전달합니다 우리는 즉시 모델을 통해 예측을 시도합니다

그러나 예측은 꽤 나쁠 것입니다 왜냐하면 우리 모델은 무작위로 초기화되기 때문입니다 그러나 우리는이 예측을하고 그것을 취하여 비교합니다 진정한 대답, 우리가 알고있는 정답 그리고이 정보를 사용하여 모델을 업데이트합니다

따라서 모델을 검토하고 업데이트 할 때마다 작동하면서 새로운 데이터 조각으로 훈련 세트를 통과하는 길, 시간이 지남에 따라 모델이 더 좋아질 수 있습니다 각 교육 루프와 함께 따라서 교육 과정은 이와 같습니다 그러나 실제로, 코드를 실제로 작성해야 할 때, 우리는 모델을 만든 우리의 기능을 사용합니다 그리고 우리는 방금 그것에 도트 트레인을 불렀다

그것은 문자 적으로 한 줄입니다 당신은 그 기능을 제공 할 필요가 있습니다 교육 데이터 입력을 제공합니다 그것은 한 줄입니다 그리고 일단 훈련이 끝나면 – 이 기능을 실행하면 꺼져서 샌드위치를 ​​잡고, 그리고 당신은 돌아오고 평가를 할 시간입니다

우리는 우리 모델을 평가해야합니다 그것이 얼마나 정확한지 보는 것입니다 기본 작업을 잘 수행하는지 확인하십시오 그래서 우리는 사물의 몇 가지 예를 보여줄 수 있습니다 우리가 올바른 답을 알고 있다는 것, 모델은 훈련에서 이러한 질문을 보지 못했습니다

그것은 훈련에서 그 데이터를 보지 못했습니다 따라서 우리가 따로 설정 한이 평가 데이터를 사용합니다 우리 모델의 성능을 측정합니다 개념 상으로는 교육과 매우 유사합니다 여전히 같은 모양입니다

그러나 중요한 차이점은 상단에 화살표가 없습니다 그것은 폐쇄 루프가 아닙니다 예측을 확인하면 모델이 업데이트되지 않습니다 결과 그리고 모델을 업데이트 한 경우, 그러면 그것은 훈련과 다를 바 없으며, 우리는 본질적으로 속일거야

따라서 평가 데이터는 그런 식으로 소중합니다 모델을 업데이트하는 데 사용하지 않습니다 우리는 그것을 옆으로 잡고 그것을 예비 해 둔다 우리 모델의 성능을 평가할 수 있습니다 코드에서는, 우리가 본 모든 것만 큼 간단합니다

우리는 점 평가를 호출합니다 평가하고 싶다면 점 평가를 호출하십시오 그리고 우리가 평가 데이터를 전달하고 있음을 주목하십시오 그것은 eval 입력 함수입니다 따라서 교육 자료가 아닙니다

그리고 우리가 훈련 데이터를 사용한다면 – 우리는 그 줄을 복사했다고 가정 해 봅시다 우리는 방금 스왑 아웃, 평가를 위해 훈련, 데이터 소스를 변경하는 것을 잊었습니다 이제 우리는 우리 모델의 성능을 훈련 데이터, 그리고 그것은 큰 실수가 될 것입니다, 모델이 교육 데이터를 위해 최적화 되었기 때문입니다 따라서 동일한 데이터를 사용하여 평가할 경우 어떤 일이 발생합니까? 당신이 당신의 모델의 진정한 성과를 허위 진술하고, 실제 데이터에서 제대로 수행되지 않을 가능성이 있습니다 한 번 배포하면 결코 볼 수 없으므로 그리고 당신은 그것이 어떻게하는지 결코 측정하지 못했습니다 이전에 보이지 않는 데이터와 그래서 이것은 우리를 다음 단계로 안내합니다

그러면 우리는 실제로 모델을 어떻게 개선 할 수 있습니까? 우리는 훈련을 실시했다 우린이 짓을 했어 우리는 평가를 실행했습니다 이제 뭐? 우리는 더 많은 훈련을 받고 있습니까? 우리는 그것을 어떻게 더 조정할 수 있습니까? 우리는 언제나 새로운 모델로 교체 할 수 있습니다 그러나 우리가이 모델을 결정한다면, 그러나 우리는 그것을 향상시키고 자 하는가? 여기서 하이퍼 파라미터 튜닝이 이루어집니다

이 모델들은 그들 자신의 매개 변수를 가지고 있으며, 그러나 우리는 어떤 가치를 사용해야합니까? 그리고 우리는 그들을 어떻게 골라야합니까? 다른 모델을 시험해 볼 수있는 것처럼, 당신은 또한 다양한 모델 파라미터를 시험해 볼 수 있습니다 이 과정은 하이퍼 파라미터 튜닝이라고 불리며, 어떤면에서는 여전히 연구 활동의 영역으로 남아 있습니다 그러나 그것이 당신이 그것을 이용할 수 없다는 것을 의미하지는 않습니다 개념적으로, 우리는 우리의 훈련을받습니다, 한 모델 만 교육하는 대신, 그 모델을 조정할 것입니다 다양한 변형을 만들 수 있습니다

그래서 우리는 다양한 변형에 대한 교육을 실시 할 것입니다 같은 기본 모델이지만 다른 모델 매개 변수를 사용하여 정확도에 미치는 영향을 확인하십시오 그래서 우리는이 모든 변형들을 훈련하고 평가할 것입니다 동일하거나 유사한 모델을 선택하고 어느 것이 가장 잘하는 지보십시오 그것이 우리의 매개 변수 선택을 알리는 방법입니다

그러나 당신은 많은 것을 실험적으로 보았습니다 당신은 그 (것)들을 작동하기 위하여 보는 시도해야한다 따라서 네 루프를 벗어나야 할 수도 있습니다 그래서 좋은 하이퍼 매개 변수를 선택하는 작업입니다 아마도 당신이 이것을 직관했을 것입니다

당신은 아마 기계 학습 문제로 변할 수 있습니다 그 자체– 모델의 매개 변수 최적화 당신이 기계 학습을 위해 사용하고있는 그러나 우리는 다른 대화를 위해 그것을 구해야 할 것입니다 그래서 우리는 데이터를 수집했습니다 우리는 그것을 준비하고 모델을 선택하고 그것을 훈련 시켰습니다 데이터를 평가하고 하이퍼 매개 변수를 조정했습니다

마침내 우리는 마지막 단계에 도달했습니다 그 예측을합니다 이것은 훈련의 전체 요점이다 처음에는 모델이었습니다 정말 정확한 정확성을 얻는 것이 아니라, 또는 서버에 열을 가할 수 있습니다

실제로 그걸로 뭔가 유용한 일을하는 것이 었습니다 그래서 예측을하면 모델을 선택합니다 우리는 어딘가에 그것을 배치하거나 우리가 그것을 격리시켜, 우리는 모델에 그것이 가지고 있지 않은 일부 데이터를 보여줄 수있다 훈련을받은 후 어떤 결과물을 보는지 그것은 예측한다 그리고 그것은 우리의 7 단계입니다

기계 학습의 개념적 7 단계입니다 실제로 실제로 어떻게 보이는지 봅시다 우리는 사물의 툴링 측면으로 돌아갈 것입니다 TensorFlow 외에도 사용하는 것을 살펴보십시오 실제로이 7 가지 단계를 어떻게 달성 할 수 있는지에 대해 설명합니다

그래서 우리는 몇 가지 코드를 살펴볼 것입니다 특히 두 가지 도구가 제공됩니다 우리가 손을 잡을 테니 추가 리소스도 참조하십시오 먼저 Co Lab이라는 도구가 있습니다 어떤 종류의 노트북 환경에서도 작업 한 적이 있다면 또는 REPL을 웹에서 사용하기 전에 기본적으로 브라우저에서 Python을 실행하는 방법입니다

그러나 파이썬 만 실행하는 것이 아니라 전체적인 노트북 환경입니다 마크 다운, 코드 실행, 기본적으로 Google 드라이브에 호스팅되기 때문에 다른 사람들과 공유 할 수 있습니다 이제 데모로 전환 해 보겠습니다 CO Lab을 사용하는 모습을 보여줄 수 있습니다 그래서 우리는 여기 – 나는 Co Lab을로드하고 우리는 다양한 명령을 실행할 수 있습니다

모든 것 우리는 기대할 것입니다 이제 우리는 여전히 연결되어 있습니다 Co Lab에서는, 그것은 노트북 환경이기 때문에, 자신의 파일을 업로드해야합니다 인터넷에 연결되므로 인증 할 수도 있습니다 물건을 끌어 내려요

필자의 경우에는 데이터 세트가 머신에로드되었습니다 그리고 우리는 그것을 다운로드 할 수 있습니다 그리고 판다가 여기에 실려 있습니다 따라서 우리는 데이터 세트를 살펴볼 수 있습니다 약속대로, 그것은 동물의 무리 다

그리고 많은 통계 자료들, 그리고 결국, 클래스 유형이 있습니다 그래서 Co Lab에서는 실제로 코드를 실행할 수 있습니다 화면에 – 음, 실시간으로 또한 Google 드라이브에서 모두 호스팅되기 때문에, 백그라운드에서 어떤 기계를 돌려야 할 필요는 없습니다 그냥 원활하게 작동합니다

그리고 다른 사람들과 의견을주고 다른 사람들과 의견을 나눌 수 있습니다 과– 거기에 우리가 간다 일반적으로 공동 연구를하거나 일을해야합니다 그래서 그것은 정말로 산뜻합니다 그래서

보자 내 생각 엔 시간이 좀있어 그러니 실제로 내가 여기서 뭘했는지 조금 지나쳐

우리는 데이터를 가져 왔고, 내가하고있는 일은 그것을 섞은 다음 데이터를 분할합니다 그래서 우리는 전체 데이터 세트를 가지고있었습니다 이 전체 데이터 세트는 101 개의 다른 동물로 구성됩니다 아마도 가장 작은 데이터 세트 일 것입니다 아마 내가 만났을거야

하지만 여전히 동일한 유형의 모범 사례를 수행해야합니다 이 경우, 나는 그것을 가져 와서 나누었습니다 교육 및 평가 데이터로 변환합니다 왜냐하면 내가 훈련을하기 위해 모두 101을 사용한다면, 내 모델을 평가하기 위해 무엇을 할 것입니까? 그래서 우리는 그것을 나눌 것입니다 이 경우 나는 60 %와 40 %의 비율을 선택했다

그 비율은 조정될 수 있습니다 그리고 우리는 우리가 볼 수 있습니다, 우리는 우리의 훈련 데이터 – 모든 60 값 그리고 우리는 아래의 평가 데이터를 가지고 있습니다 그리고 저는 약간의 전처리를합니다 이것은 귀하의 데이터 비트 처리입니다

특히 데이터 세트의 마지막 열은 레이블입니다 그것은 대답이다 올바른 유형의 동물의 1에서 7까지 그것은 파충류, 양서류, 포유류 등입니다 문제는 레이블이 1에서 7로 이동한다는 것입니다 그리고 나는 그들에게 6을 통해 0이 될 필요가있다 이 특별한 경우에 그래서 나는 그것을 하나씩 뺍니다

하나를 뺍니다 그리고 그게 전부입니다 아주 간단한 사전 처리 아마 더 큰 데이터가, 아마, 더 많은 일을 할 것입니다 그리고 우리는 우리의 데이터가 분명히, 나는이 일을하지 않았다

항상 코드를 실행하십시오 여기에 우리의 입력 함수는 매우 간단합니다 우리의 원시 데이터가 필요하며, 만약 우리가 그것을 원한다면, 데이터 세트에서 임의로 호출 할 수 있습니다 그리고 나는 필요에 따라 반복하고 배치를 청크로 만들었습니다 그래서 이것은 훈련에 바로 들어가게 될 것입니다

데이터 세트에 대한 이야기가 있었다고 생각합니다 구체적으로는 입출력이 빠릅니다 그래서 놓친다면 녹음을들을 수 있어요 또는 라이브 스트림을 롤백 할 수 있습니다 그래서 우리는 데이터 집합을 가지고 있습니다

또는 우리의 입력 기능 그리고 나는 세포를 다시 돌리는 것을 잊었다 고 생각합니다 그리고 이것은 제가 여기있는 작은 세포입니다 내 입력 기능을 시험해보기 위해, 작동하는지 확인하려면 – 항상 물건을 테스트하는 것이 좋다 그래서, 우리는 입력 기능이 실제로 있다는 것을 알 수 있습니다

깃털의 각 유형에 대한 모든 데이터를 반환합니다 알을 낳고, 공중에 무엇이 있고, 백본이 있는가? 그런 것들 따라서 각 배열은 일괄 처리 된 데이터를 나타냅니다 그리고 나는 또한 이것으로 놀고 있었다 각 열의 고유 한 값을 확인하는 것 대부분이 1과 0이라는 것을 확인하기 위해, 그러나 조금 이상한 몇 가지가 있습니다

예를 들어, 5 개의 다리가있는 동물이 있습니다 따라서 모든 데이터 세트가 완벽하지는 않습니다 TensorFlow는이 기능 항목 개념을 사용합니다 들어오는 데이터를 나타냅니다 모델은 매우 일반적이므로 기능 열을 사용하여, 특정 데이터 세트에 맞게 사용자 정의 할 수 있습니다

우리의 경우 모든 데이터 (모든 열, 그 중 숫자 17 인 17 개가 모두 그것을 숫자로 설정하십시오 그래서 그것은 단지 구성입니다 TensorFlow에 몇 개의 열과 어떤 유형이 있는지 알려주 들어오고있어 그래서 우리는 그것을 실행할 것입니다 그리고 일이 깨면 그것은 내가 셀을 실행하는 것을 잊어 버렸으므로, 그렇게되면 저에게 소리를 지르십시오

그리고 여기에 우리가 전에 본 선이 있습니다 모델 생성과 함께 여기서는 선형 분류자를 만들고, 해당 지형지 물을 가져오고, 7 개의 다른 클래스가 있다고 말하자 동물에 대해 가능한 다른 값 기차와 평가를 결합했습니다 기차를 타고 함수를 함수로 평가한다

편의를 위해, 그래서 그들은 둘 다 함께 달린다 나는 훈련 자료를 훈련시키고 싶다 평가 데이터에 대한 평가를 실행하고 싶습니다 이렇게 함께 배치하면 세포를 재실행 할 때 버그가 생기지 않도록하십시오 네가 따라갈 때

선형 모델을 실행한다고 가정 해 봅시다 우리는 그 방향을 돌립니다 따라서이 모든 것이 Google의 서버에 의해 뒷받침됩니다 그리고 명백하게, 그것은 그것의 달콤한 시간을 보내고 있습니다 그것이하는 동안 – 글쎄, 이건 끝났어

그래서 우리는 90 %를 얻었습니다 이것은 OK와 같습니다 맞습니까? 100 개의 행만있었습니다 우리는 훈련을 위해 60 명을 가져 갔고 평가를 위해 40 명을 사용했습니다 그래서 그것은 가장 신뢰할만한 척도가 아닙니다

여기에 도구가 있다는 아이디어가 있습니다 코드가 있습니다 이를 자신의 데이터로 바꾸어야합니다 이 데이터 세트보다 훨씬 좋을 것입니다 멋진 결과를 얻을 수 있습니다

따라서 약속대로, 심 신경 네트워크는 매우 유사합니다 그것은 문자 적으로 이전과 동일합니다 그러나 나는 그것을 숨겨진 단위로 바꿨다 나는 주목할만한 차이가 하나 있다고 생각한다 내가 이전 기능을 사용한다는 것입니다

우리가 전에 가지고 있었던 컬럼들 표시기 열에 그래서 이것은 선형 네트워크를 배치하기위한 공간 일뿐입니다 데이터를 심 신경 네트워크가 표현할 수있는 방식으로 변환합니다 그래서이 이야기의 범위를 벗어났습니다 하지만 그것은 단지 깊은 신경 네트워크를위한 조정입니다

선형 네트워크는 처리 할 필요가 없습니다 그래서 우리는 그것이 만들어 지도록 할 것입니다 죄송합니다 방금 새 셀을 만들었습니다 그래서, 그것은 또한 여기에서 과시하는 것이 좋습니다

따라서 우리는 매우 쉽게 코드 블록과 셀 블록을 생성 할 수 있습니다 그 사이에 모든 종류의 훌륭한 편집 작업을 할 수 있습니다 능력은 여기에 있습니다 그리고 당신은 그것을 markdown으로 바꿀 수 있습니다 셀을 실행합니다

그리고 거기에있을거야 그래서 깊은 네트워크 – 내가 이것을 도망 간다는 것을 잊어 버린다 어쩌면 우리는 그것을 다시 실행할 것입니다 모델을 더욱 밀어 넣을 수도 있습니다 여기 백분율은 때로는 불안정합니다

왜냐하면 그들은 – 평가 데이터에는 40 개의 값만 있기 때문에, 이것은 사실입니다 40 세가 넘는 사람들이 올바르게 받아들이고 있습니다 다른 것들은 틀린 것입니다 그래서이 경우 10 %, 아마도 약 4 % 잘못되었거나 3 ~ 4 개가 잘못되었습니다 그래서 몇 가지 예언을하고 놓친 것을 봅시다

TensorFlow에는 도트 예측 기능도 있습니다 마치 기차와 도트를 평가하는 것과 같습니다 그래서, 당신은 통과 할 수 있습니다 방금 평가 자료를 가져 와서 몇 장을 나눠 냈어 보십시오보기의보기

그래서 우리는 우리가 그렇게 할 때, 당신은 예측과 올바른 대답을 얻습니다 그래서이 경우, 내가 임의로 선택한 다섯 가지 일이 생겼어 그러나 우리가 잘못한 정확한 것을보고 싶다면 어떻게해야할까요? 그래서 이것은 내가 도망친 작은 실험이었다 단지 내가 궁금해서 – 어느 것이 선형 네트워크가 잘못되었는지 그리고 어떤 것들은 깊은 네트워크가 잘못 되었습니까? 이 경우에는 서로 다릅니다 그들은 같은 숫자의 잘못된 예측을 가지고 있습니다

그들은 모두 네 가지가 잘못되었지만 실제로는 다른 예 그리고 이것은 더 깊이 파고들 수있는 기회가 될 것입니다, 그걸 가지고 놀아 라 마지막으로 내가 추가 할 것은 Co Lab 또는 Co Laboratory입니다 GPU를 지원합니다 그래서 GPU를 토글 할 수 있습니다

큰 데이터 세트와 멋진 모델이 있다면, 그런 종류의 물건에 액세스하고 그 GPU를 얻고 싶습니다 슬라이드로 돌아가 봅시다 간단히 살펴보고 다른 도구를 살펴보십시오 CO 연구실 외에 다른 도구가 있습니다 우리는 매우 유사합니다

노트북 기반이기 때문에 들어 보셨을 것입니다 그것은 Kaggle이라고합니다 그리고 Kaggle이 대회로 가장 유명하지만 토론 포럼 및 데이터 세트, 또한 Kernels라는 기능이 있습니다 그리고 커널은 실제로 노트북의 멋진 이름입니다 그리고 커널은 이런 모습입니다

Co Lab에서 익숙해지기 시작할 수도 있습니다 파란색은 제외하고 그리고 커널은 몇 가지 미묘한 차이가 있습니다 첫째, 나는 ~하고 싶다 Kaggle Kernels의 데모로 전환 해 보겠습니다

우리는 그 모습을 볼 것입니다 어떻게한다는거야? 그래서 저는 이전에 Co Lab에서 가지고 있던 노트북을 가져갔습니다 나는 노트북 자체를 다운로드했다 IPython 노트북 파일로 Kaggle에는 데이터 세트가 있기 때문에 실제로 동물원 동물 분류 데이터 세트가 있습니다

정확한 데이터 세트를 얼마나 편리하게 선택했는지 그것은 이미 Kaggle에 존재합니다 그래서 새로운 커널을 클릭 할 수 있습니다 노트북을 고를거야 그리고 Kaggle Kernels는 파이썬에서 동작 할뿐만 아니라, R에서 실행하도록 선택할 수도 있습니다 R을 선호합니다

제가 할 수있는 일은 실제로 제가 할 수있는 일입니다 노트북 업로드 – 음, 먼저 그 노트를 다운로드해야합니다 그럼 그렇게 하죠 그래서 Co Lab에서 우리는 다운로드 할 것입니다 – 이것은 내가 크게 확대하는 것입니다 책을 다운로드하십시오

그런 다음 다운로드가 완료되면 그 노트를 다시 Kaggle Kernels에 업로드 할 수 있습니다 그래서 붐

커널과 동일한 노트가 있습니다 하나의 작은 비틀기가 있습니다 로컬 드라이브에서 파일을 업로드해야했기 때문에, Co Lab을 위해, 우리는 그것을 제거 할 것입니다 그리고 유일한 다른 조정은 Kaggle Kernels에서 데이터입니다 입력이라고하는 하나의 디렉토리에 있습니다

첫 번째 셀을 실행하면 우리는 아래로 나아갈 것입니다 우리는 데이터가 입력에서 살아 있음을 볼 것입니다 그리고 그것은 같은 종류의 것입니다 그리고 우리는 이미 노트북의 나머지 부분을 보았 기 때문에, 그것은 문자 적으로 같은 것입니다 재미있는 것은, 커널에서, 우리는 할 수 있습니다

어디 보자 이름을 지어 보자 그리고 우리는 그 노트를 저 지르 수 있습니다

그리고 Kaggle Kernels이하는 일은 그것입니다 새로운 신선한 환경에서 노트북을 운영 할 것이며, 당신이 속한 세션과는 별도로 그러면 모든 출력이있는 노트북이 생성됩니다 우리가 일종의 훌륭한보기 전용 형식으로보고있는 정말 공유에 유용합니다 왜냐하면 당신이 당신의 노트를 공유하고 싶다면, 그것이 실행 된 방법뿐만 아니라 다른 사람들에게도 마찬가지입니다 재현 가능한 노트북을 원한다면 우리가 여기에서 보는 것의 종류

그래서 우리는 수첩을 썼다 끝났다 그리고 그 스냅 샷을 볼 수 있습니다 그래서 GitHub 모델과 비슷합니다 당신의 노트를 버틸 수있는 것처럼 따라서 기본적으로 노트는 비공개입니다

그리고 우리는 여기서 일들이 도망가는 것을 볼 수 있습니다 나는이 모든 것들을 하나씩 수행 할 필요가 없었습니다 그리고이 세포들을 수동으로 작동시키지 않으면, 이전에, 내 결과를 얻기 위해 이처럼 위에서 아래로 그 종류의 버그를 잡는 데 도움이됩니다 도움이 될 것입니다 내가 내려올 때 길 아래로 내 공연 이번 주 또는 다음 달에

그리고 노트를 공유하면, 노트를 포크 할 수 있습니다 그들을 포크로 찍을 수 있습니다 당신은 또한 다른 사람들이 당신의 노트를 포크로 찍게 할 수 있습니다, 또한 노트북에 공동 작업자를 추가 할 수 있습니다 동일한 노트에 사용자를 추가 할 수 있습니다 그냥 그들을 포크보다

따라서 많은 훌륭한 공동 작업 모델이 있습니다 Co Lab 및 Kaggle 전체에서 특정 유스 케이스에 그리고 간단히 언급하면 ​​좋을 것 같습니다 Co Lab과 마찬가지로 Kaggle Kernels에서도 GPU를 사용할 수 있습니다 게다가

그래서 그것이 당신을위한 결정적인 요소가되도록하지 마십시오 Kaggle Kernels입니다 슬라이드로 다시 전환합시다 몇 가지 다른 작은 도구와 팁에 대해 이야기 해보십시오 그리고 속임수, 우리가 일을 마무리하기 전에

슬라이드로 다시 전환 할 수 있다면 굉장해 그럼, 당신은 노트북을 원하지 않는다고 가정 해 봅시다 예를 들어, 노트북을 사용해보십시오 그리고 그들은 단지 당신을위한 것이 아니 었습니다 또는 더 큰 작업 부하가 있습니다

장기 실행 작업을해야합니다 몇 시간 동안 뛰게됩니다 아니면 정말 큰 데이터 세트를 가지고 있거나, Kaggle Kernels에 맞지 않습니다 또는 로컬 디렉토리에 맞지 않는 경우, 그래서 수동으로 드라이브에 업로드하지 않을 것입니다 그런 다음 Cloud Machine Learning Engine과 같은 것을 사용할 수 있습니다

당신은 일자리를 차출 할 수 있습니다 – 장기간 일하는 – 분산 된 컴퓨터 집합을 가로 질러 실행될 수도 있습니다 모두 잠재적으로 GPU가 첨부되어 있습니다 일단 끝나면 모델을 제공 할 수 있습니다 당신은 그 예측을하고 싶다 그러나 아마 당신은 그것을 대규모로하고 싶습니다

당신은 앱을 만들고 있습니다 모델을 훈련하고 생성하려고합니다 세계에 예측을 제공 할 수있는 휴식 종점 그리고 기계 학습 엔진 또한 자동 스케일링 예측 서비스가 포함됩니다 글자 그대로 TensorFlow 모델을 사용할 수 있습니다

그것에게 이름을주고, 끝내라 말 그대로 파일을 가리키고 이름을 지정하십시오 다른 단계는 없습니다 왜냐하면 봉사 할 모델을 만드는 관점에서 다른 일은 할 수 없다 그것은 정말로 산뜻하다

그리고 당신이 scikit-learn 같은 것들로 작업한다면 또는 [INAUDIBLE] 부스트를 선택하고 해당 서비스를 제공하려는 경우, 우리는 그것들을 또한 가져갈 것이다 그래서, 당신은 작전을 처리 할 필요가 없습니다 기계 학습의 측면에서, 당신은 당신의 데이터로 놀 수 있고, 모델을 조정하고, 교육하고, 쉽게 배포 할 수 있습니다 그리고 나는 대부분이 대부분은 아니지만 많은 사람들이 기계 학습 API를 알고있을 수도 있습니다

또한 사용할 수 있습니다 이들은 다양한 작업을 수행하기 위해 사전 설정된 API입니다 그들은 좀 더 통조림입니다 자신의 데이터를 제공하지는 않지만 모든 것이 그냥 상자에서 작동한다는 것을 의미합니다 너는 뭔가가 필요해

너는 돌릴 그림이 필요해 설명으로, 당신은 텍스트로 바뀌어야 오디오가 필요합니다, 그냥 작동합니다 그래서 친절 해 그러나 물론 제한 사항은 사용자 정의 할 수 없다는 것입니다 귀하의 특정 사용 사례

아직 기다려야 할 것이 있습니다 조금 더 길어 Vision의 주목할만한 예외가 있습니다 따라서 자동 ML, Vision은 현재 알파에서 사용 가능하며, 그래서 당신은 그것을 신청할 수 있고 자신의 데이터를 제공 할 수 있습니다 자신의 Vision API를 교육하고 맞춤 설정합니다

그래서 그것은 깔끔한 측면 접선과 같습니다 이전에 보았던 애니메이션, 나는 오렌지와 파란 점들과 함께 보여 주었다 TensorFlow 놀이터에서 왔습니다 그래서 신경망으로 놀고 싶다면 귀하의 브라우저에서와 같은 것들을 토글 켜고 끄기 장난 만하면됩니다 TensorFlow

org 그리고 바로 그 일을 할 수 있습니다 그리고 걱정하지 마라, 당신은 그것을 깰 수 없다 브라우저를 통해서만 가능합니다 자신의 기계 만 깰 수 있습니다 그러면 다음은 무엇입니까? 우리가 방금 본 코드는 – 나는 그것을 공개했다

그것은 Kaggle 위에 있습니다 그래서 Kagglecom/yufeng/zoo-demo에 있습니다 TensorFlow에 대해 더 자세히 알고 싶다면, TensorFloworg로 향하십시오

셋째, 기계 학습 과정이 있습니다 구글이 최근에 발표했다 그리고, 만약 당신이 배우고 싶다면 – 정말로 잠수해라 기계 학습의 개념으로, 우리가 오늘 여기에서 이야기했던 것보다 더 멀리 나아 간다 저기로가

기본적으로 전체 커리큘럼이 있습니다 할 수있는 동영상 및 과제에 대해 기계 학습 지식을 축적하십시오 그리고 마지막으로, 기계를 다루는 데 관심이 있다면 클라우드에서 학습하면 넘어갈 수 있습니다 클라우드 돔, 하얀 텐트에 Google Assistant 돔 옆에 있습니다 또는 cloud over

Googlecom/mineinelearning으로 이동하십시오 또는 / ml이다 처음에 언급했듯이, 저는 비디오 시리즈를 호스트합니다 AI 모험과 같은 이름으로 우리는 재미있는 너겟을 탐험한다

기계 학습에 관한 각 에피소드에서, 한 번만 실습 데모를 시도해보십시오 흥미로운 사람들과 몇 차례 인터뷰를합니다 그래서 잘하면 당신은 그것을 확인하고 구독 할 것입니다 이 세션에서 저와 함께 해 주신데 대해 감사드립니다 우리는 정말로 – 세션에서 피드백을 정말 고맙게 생각합니다

정보, 그래서 일정에 이상 머리에하시기 바랍니다, 로그인하여 몇 가지 피드백을 줄 수 있습니다 고마워 [박수 갈채] [음악 재생]