【ML & AI】Google I/O Extended: Recap Live Japan 2019 #RecapLiveJP

화자 1 : 예에서는 제 쪽에서 네요 기계 학습과 AI의 이야기를 해 나가고 싶습니다 나도 개발자 아 도보 케이트 네요 여러분과 같은 일을하고 있습니다하면 에서 세션이 대략 13 개 정도 I / O는 있었다 합니다만 그 중에서 내가 이렇게 비비 계속 온 녀석을 같네요 이번 선택하고 왔습니다 비교적 Cloud의 이야기는별로없고 어느 쪽인가하면 TensorFlow 이라든지 그쪽이 많았 지요 에서 이번 기계 학습 이외에도군요 다양한 도우미 라든지 발표있었습니다 만 모든 가장자리 측의 AI 가장자리 측의 ML 기계 학습이라는 것이 대단한 기능되고 있었던 거죠 지금까지 Google 클라우드 측의 대량의 컴퓨팅 리소스를 사용하여 그래서 기계 학습이나 땅땅 만들어 그래서 뭔가 이렇게 재미있는 서비스 내고받는 것이 많았 습니다만 그것이 점점 이제 기술이 진화 에지 측에서도 즉 장치에서 또 그 자리에서 기계 학습한다고하는 기술이 보급되고 있습니다 다만 여기서 걸림돌이되는 것이 기계 학습이란 이렇게 가볍게 없네요 무거운 처리가 들어갑니다 Google은 아시다시피 TensorFlow라고 오픈 소스 도구를 옛날부터 제공하고 있습니다 하지만 TensorFlow 말이죠 여러분 보통으로 사용하고 아무 생각없이 학습 모델 녀석을 만들면 대개 수백 MB 든가 바보 커졌다 버립니다 그래서 그것을 그대로 모바일 앱이라고 후에는 라즈베리 파이거나 조그만 컴퓨터로 가져 오려고하면 할 수 없지는 않습니다 그러나 나도 한번 라즈빠이에 TensorFlow 녀석을 그대로 가져 오면 실제 이미지 인식하는데 2 초 정도 걸렸다니까요 무겁고 느린 조금 사용하기 어려운 스마트 폰 앱 따위에 넣어 버리면 손님이 수백 MB 다운로드하지 않으면 안 같은 네요 좀 쓸모가 없었습니다 게다가 모바일 앱이라면인가 편입 계의 조그만 장치라고 역시 배터리의 소유라는 중요하기 때문에 CPU 사용량라는 것을 최대한 낮추고 싶다는 요구도있었습니다 에지 측의 기계 학습 과제를 해결하고 모바일 앱이라면인가 에지 장치에 적합한 TensorFlow의 실행 환경을 제공하는 것이 이 TensorFlow Lite 아래에 조그 맣게 Lite라고 써 있네요 이것은 TensorFlow예요 그러나 모바일 앱이라고 라즈베리 파이 같은 조그만 컴퓨터 전문 일부 같은 새로운 실행 환경이됩니다 이것을 사용하면 먼저 모델 크기가 수백 MB라는 것이 예를 들어 4 분의 1이나 그 이하로 꽉 작게된다 또한 CPU 아니고 GPU를 사용하거나 최근 스마트 폰은 GPU 라든지 들어가 있지요 라즈빠이에도 GPU 제대로 들어 있기 때문에 그렇게 말한 것을 사용하여 실행 속도도 몇배이나 두 자릿수 배 라든지 빨라진다는 장점을 얻을 수 있습니다 때 TensorFlow Lite는 세 가지 환경에서 작동 이 왼쪽이 중간 근처 옆에서 말이죠 라즈빠이 것 같은 내장 않아도 움직이고 스마트 폰 Android iOS에서도 움직이고 그리고는 마이크로 컴퓨터로도 움직이는 우선이 스마트 폰의 이야기에서하고 싶다고 생각합니다 앞서 강씨에서 설명했습니다 있도록 ML Kit 네요 이것을 사용하면 우선 ML Kit 자체에 기계 학습 기능이 있기 때문에 그것으로 끝나는 것이라면 가장 쉽게 이군요 ML Kit에 들어있는 이미지 인식 기능을 사용하면 이것은 예 (청취 불가) 라든지 그리고는 방금 전의 AutoML Vision Edge를 사용하면 또 TensorFlow Lite 라든지 전혀 생각하지 않고 클라우드에 사진을 업로드 개 인식 이라든지 쉽게 할 수 버려 때문에 그것으로 끝나고 じゃえ하면 전혀 그걸로 오케이예요 그러나 역시 용도에 따라 다만이 TensorFlow Lite까지 내려와군요 스스로 TensorFlow Lite 모델을 설계하고 학습하는 것이 때로는 필요가 되네요 에서 그런 때 TensorFlow Lite를 사용하시면 모바일에서도 쉽게 사용할 수 있습니다 그럼 어떤 앱이 실현 가능한가 ML Kit에는 표준 기능으로는 할 수없는 았지만 TensorFlow Lite에서 제작 만하면 이런 일도 할 수있게되면 사용 예 예를 들어 이번에는 Dance Like라는 앱이 공개되어있었습니다 이것은 먼저 움직이고있는 모습을보고하자 이것은 단순한 게임에서 댄서의 춤이 나오는군요 그에 따라 플레이어 자신도 같네요 스마트 폰을 향해 춤과 같은 춤을 이렇게 오동 않으면 안되는 것이군요 에서 그러면이 댄서의 춤과 자신의 춤이 얼마나 제대로 딱 맞고 있는가하는 것을 점수로 판정 해주고 대단한 간단한 게임인데 이 가운데는 사실 매우 복잡한 기술이 움직이고 있습니다 우선 네요 이것은 분류되고 있습니다 만 이처럼 인체를 인식하고 인체의이 부품이 팔 이라든가 머리 바디라는 것을 세분화하는 기술로 인식하고있다 네요 이 플레이어 즉 자신과 이 댄서의 비디오를 각각 2 인분 실시간으로 실행하는군요 이것은 매우 무거운 처리 이군요 딥 러닝 세분화하는 것은 상당히 깊은 학습 제한 표지의 기술 그렇게 쉽게 움직이지 합니다만 이 스마트 폰의 GPU만으로하고 싶네요 이것은 클라우드 측의 기술을 전혀 사용하지 않는 것도 중요한 작업입니다 에서 TensorFlow Lite를 사용하면 지금까지 CPU뿐입니다 와우 이제 배터리의 마음이 나빠져 있던 같은 깊은 학습 앱도 GPU를 사용하여 55 배의 속도로 움직이게 되네요 또한 이번 I / O에서 발표 된 것이 Qualcomm 씨의 DSP를 지원이라면 DSP 란 Digital Signal Processor의 약자로 사실 이것은 옛날부터 스마트 폰에 들어가있었습니다 만 원래는 스마트 폰의 신호 처리 용 프로세서로 예를 들어 음성 신호를 실시간으로 처리하고 던가 이미지 처리 라든지 그러한 전용 프로세서입니다 만 사실 여기에는 GPU와 마찬가지로 이른바 적화 연산 곱셈과 덧셈을 대량으로 빠르게 할 수있는 회로가 들어하면 이것은 사용하여 AI 주면 더 빨라지 잖아 및 것으로 Qualcomm 씨와 Google에서 이번 네요 TensorFlow Lite를 DSP에서 달린다는 발표를했습니다 이것은 실제로 사용할 수있는 것은 여러분이 사용하실 것은 여름 정도예요 그러나 이것을 사용하면 GPU보다 더 빠른 13

8 배 6 밀리 세컨드로 실제 예를 들어 이미지 인식 등이 끝나 버린다는 발표가있었습니다 지금은 스마트 폰의 이야기군요 계속해서 라즈빠이 이야기 임베디드 Linux 즉 조그만 Linux 시스템 네요 3 천엔이나 5 천엔 정도에 살 수 있으며 그래도 TensorFlow Lite가 움직임 있어요 말입니다 아까 말했듯 내가 라즈빠이에서 2 ~ 3 년 전에 생 TensorFlow를 이동하면 2 초 걸렸습니다 및 그것이 얼마나 빨라 질까라는 이야기군요 에서 여기에서도 데모 비디오를 보여드립니다 이것은 말입니다 스마트 폰 앱 아니라 AI 거울이라는 거울의 데모입니다 거울 속에 디스플레이가 들어가있어 거기에 사람이 비치고 있다고하네요 그래서 안경을 주거나 머리카락의 색을 같네요 마음대로 바꿔 주기도합니다 이것은 아까와 같은 세분화하는 기술 거울의 뒷면에있는이 이것은 라즈빠이 아니 네요 어쩐지 Linux 계열의 시스템에서이 CareOS라고 어쩐지 코스메틱 계의 상품으로 취급되고있는 OS 인 것 같습니다 임베디드 OS도 이 CareOS에서 TensorFlow Lite가 GPU를 사용하여 이러한 세분화이라면인가 얼굴 인식하네요 이런 것들을 실시간으로하고하면 그래서 이런 것도 같네요 지금까지하려고하면 ARM 프로세서 CPU에서 할 필요가 있고 이런 속도 나오지 않았다 합니다만 지금부터 계시다면 TensorFlow Lite 덕분에 이러한 매우 좋은 성능을 나오게되어 있습니다 또한 지금까지 DSP거나 GPU의 이야기를 했습니다만 Google는군요 더 그 위를가는 더욱 더 빠른 딥 러닝 AI의 실행을 목표로해서 에지 용 장치 에지에서 AI의 실행을 위해 Edge TPU Tensor Processing Unit는 칩도 Google이 처음부터 설계하고 만들고 있습니다 때 로 이것은 지금 Coral라는군요 옛날 AIY 브랜드가 있었군요 그 Voice Kit이라면인가 Vision Kit 이라든지있었습니다 만 그 브랜드가 지금 새 단장해서 Coral 브랜드가되었습니다 이 Coral 브랜드 Edge TPU를 탑재 한 가속 가속 용 보드군요 장치를 지금 판매합니다 이것은 일본에서도 Mouser JP 씨에서 살 수 있습니다 지금 8 천엔 정도 일까에서 구입하실 수있어서 에서 USB로 라즈빠이이라면인가 Linux에 연결하고 또는 SOM라고 말이죠 이것은 실제로 Linux를 움직이는 조그만 보드 인데요 이 가운데 서브 보드로 올라 타있는 버전 두가지가있다하면 그럼 지금 사용할 수있는 것은이 USB 버전 이네요 이것이라면 국내에서 즉시 사용하실 수 있습니다 에서 이들을 사용하면 GPU보다 더 빠른 딥 러닝 말이죠 이 조그만 Linux 위에서도 사용할 수있게된다 이것은 속도를 비교하면 예를 들어 보통의 이미지 인식 비교하면 이것은베이스가 않은 Pixel 3 네요 Pixel 3의 CPU로 인식하는 경우에 비해 42 배 빠른 1 번 이미지를 인식하는 데 2 ​​밀리 초입니다 아까 제가 말씀 드렸듯이 라즈베리 파이 보통의 CPU로 돌리면 1 ~ 2 초 2 초 정도 걸렸습니다 그것이 지금 2 밀리 초에서 수 있도록되어 있습니다 때 그럼 그 데모도 조금 보여 드리죠 이것은 실제 I / O하던 데모입니다 그러나 이런 어쩐지 차량이라면인가 신호등입니다 라든지 보행자의 모형이 올라 오면 자꾸 이런 식으로 실시간으로 화상 인식합니다 이것이 대략 지금 2 밀리까지했다 네요 이것은 다른 오버 헤드 (청취 불가) 음 10 밀리 초 정도 실행하고 있습니다 60 프레임 당 두번째 즉 거의 실시간으로 이미지를 인식 할 수 있으므로 예를 들어 공장에서 불량품을 퐁퐁 퐁퐁 실시간으로 물리 치고 싶다 던가 불량품 인식 후에는 정말 이러한 자동 운전 같은 곳에서 즉시 실시간 인식하지 않으면 안 같은 용도에 HTP를 사용할 수 있습니다 때 에서 세 번째 플랫폼 마이크로 마이크로 컨트롤러 네요 에서 마이크로 여러분의 가정에 말이죠 반드시 몇개 있다고 생각합니다 수십 개일지도 모릅니다 예를 들어 밥솥 안에 대략 마이크로 들어가 있지요 그리고는 온수기 라든가 그리고는 TV 리모컨인데일지도 조그만 컴퓨터 이는 Linux도 움직이지 같은 엄청난 조그만 CPU가 대략 가전이나 들어 있지요 에서 당연 합니다만 리모콘이라면인가 Linux 부팅하고있어 어쩐지 시간 있지요 건전지로 움직이고 있으니까요 거기에는 대개 OS가 없어서 이제 임베디드 시스템 엔지니어 분들이 C로 작성된 원시 바이너리 코드가 있네요 ARM 프로세서 위에서 움직이거나하는 거죠 그러나 그래서 그런 대단한 조그만 초 저전력 CPU 컴퓨터 위에서는 메모리 말이죠 대략 수십 KB와 수백 KB 정도 밖에 사용할 수 없다 네요 무엇 메가도없는 경우가 많습니다 그래서 지금까지 거기에서 AI를 사용한다는 발상은 없었더라도 Google의 TensorFlow Lite 팀은 열심히 마이크로 속에서 깊은 학습을 사용할 수 없을까하는 것으로 개발을 진행하고 이것이 TensorFlow Lite 마이크로 컨트롤러라는 놈입니다 데모를 보여 드리죠 앞으로 네요 이것은 한 번 실패합니다 그러나 다시 한번 여기에 라이트가 붙습니다 번쩍 네요 "예"라고하면 노란 녀석이 번쩍 빛납니다하지만 이것은 단순한 음성 감지 네요 노란 놈이 돋보입니다하지만 이것은 단순한 음성 감지 네요 오디오 (청취 불가)까지는 가지 않습니다 어쩐지 문자 인식까지 음성 인식까지는 가지 않습니다 그러나 간단한 "예수"이라고 "OK Google"같은 녀석에 반응 뻔쩍 트리거 (청취 불가) 남중 수 밖에 없지만 이것은 엄연 깊은 학습이 움직이고 있습니다 사실이 깊은 학습 모델 20KB의 크기 이군요 20MB 잖아요 보통 아무것도 생각하지 않고 음성 인식 모델을 만들어 버리면 수백 MB 라든지되어 버립니다군요 그것이 20KB에서 움직이고있는 그래서 분명히 말해 정밀도도 안마 비싸다 하 인식 할 수있는 것도 정말 적은 단어 만입니다 만 하지만 수 버려 에서 이후 샘플 코드로 이미지 인식을 해 버리는군요 샘플도 200KB 정도에서 제공 될 예정입니다 그래서 앞으로 여러분의 가정의 마이크로 컨트롤러에 깊은 학습이 움직이기 시작하면 예를 들어 일상 생활의 패턴을 학습하여 여러분의 라이프 사이클에 맞춘 현명한 동작을하는 가전 수 있고입니다 라든지 다양한 응용이 가능한 않을까라고 생각합니다 이어 말이죠 매우 이번 커다란 컴퓨터 슈퍼 컴퓨터의 이야기입니다 이것은 내가 Google I / O에서 담당 한 세션입니다 그러나 그 TPU Tensor Processing Unit는 Google이 만든 전용 프로세서 이것을 2048 개 이은 거대한 슈퍼 컴퓨터가 이번 공개 베타 버전으로 공개 여러분 바로 사용하실 상태입니다 이것은 Cloud TPU Pod라는 놈입니다 그러나 이것은 진정한 슈퍼 컴퓨터 이군요 슈퍼 컴퓨터와 일반 컴퓨터의 차이라는 것은 프로세서 아니 네요 컴퓨터의 계산 결과 잖아요 네트워크가 전혀 다른군요 (웃음) 이것은 똑같은 옷을 입고 옷의 변형이 없음이 발레 발레입니다 그러나 (웃음) 아까의 스티브 잡스 스타일 에서 슈퍼 컴퓨터가 중요한 것은 통신이 엄청나게 빠른 보통 통신이라고하면 이더넷을 위해 TCP / IP 소프트웨어와 통신 할 잖아요 있는 절대 500 마이크로 비트 걸려 버립니다 CPU에서하는 것이어서 네요 에서 슈퍼 컴퓨터 세계에서 통신이란 다른 소프트웨어는하지 않는군요 다른 하드웨어에서 통신을 모두 할 수 없다 때문에 이쪽의 컴퓨터에서 이쪽의 컴퓨터에 복사하는데 1 마이크로 초 라든지이에요 예를 들어 이화학 연구소 교토 따위는군요 이와 유사한 기술을 사용하여 또 2 자리 3 자리 빠르게 그 TPU와 TPU 사이를 맺고 있기 때문에 엄청 빠른 학습이 가능하면 보통 이런 2048이나 노드 걸려 버리면 절대 네트워크 병목 버려서 사찌っ 버리는군요 스룻뿌 이라든지 그것없이 매우 선형에 가까운 확장 성을 제공하는 것이이 TP Pods입니다 때 에서 지금 순간 나온 데요 조금 되돌립니다 네요 미안 해요 이것의 장점은 가격이 대단히 저렴하다는군요 보통 슈퍼 컴퓨터로 만들면 이화학 연구소 경은 1 천억엔 종합적으로 달려 있지요 에서 미니 슈퍼 컴퓨터 예 NVIDIA 씨의 DGX1 2 이라든지 사면 4 천만 이라든가 게다가 16GPU 이라든지 붙어 있습니다 그러나 역시 대단한 높은 것입니다 수천만이나 1 억이나 수억 라든지 그러나 Cloud TPU Pods 32 코어 24 달러 였는지 즉 3000 엔 정도 시간당 3000 엔으로 사용하기 시작하고 초기 투자 0 엔입니다 그래서 아마 업계 최초의 AI 슈퍼 컴퓨터 렌탈 서비스 이군요 수천만이나 수억이나 지불하지 않아도 슈퍼 컴퓨터를 바로 사용 버리는 내가 실제로 포치 포치 일 때도 128 코어의 인스턴스를 만드는 데 2-3 분 또 수 버렸습니다 그래서 (청취 불가) 나는 학습 무거운라고하는 분은 Cloud TPU Pod를 사용해 주시면라고 생각합니다 그럼 이번 슈퍼 컴퓨터를 사용하여 무엇을 할 수 있는가하는 이야기입니다 만 이것을 보신 분은 많다고 생각 했는데요 이런 최근에는 가짜 이미지가 있지요 깊은 학습이 만든 이것은 개 영상이 함께 있지만 여기에 진짜 개는 한 마리도 없다 모두 합성 된 개 이미지입니다 이런 골든 리트리버와 테리어인지 뭔지 일까 사이의 이미지도 전부 이렇게 틈을 따서 만든거나 할 때 이런 고품질의 깊은 학습에서 이미지 생성을 할 때는 이 경우 512 코어를 사용하여 2 일간 계속 학습 해방에서 겨우 수 있었다는 것입니다 그렇게 말한 것이 Cloud TPU Pod 수행 할 수 있기 때문에 예를 들어 지금 잘 이야기가있는 것이군요 게임 고객 네요 캐릭터의 이미지를 사람이 그리는 것이 아니라 AI에 그리게보고 싶다라고하는 아이디어는 실제로 앞으로 시험하실 것이 아닐까라고 생각합니다 이어 웹의 세계군요 TensorFlowjs는 프레임 워크가 있나요? 이것은 JavaScript로 움직이는 TensorFlow합니다 그래서 웹 응용 프로그램에서 서버에 액세스하지 않고도 바로 이동 버린다 예를 들면 이런 식으로 얼굴의 방향을 인식 따위 이것도 js 안에서만 웹 응용 프로그램에서 속도 위반 여러가지 게임을 만들고 UI를 만들고 있으며 방금처럼 인체의 세분화 이것도군요 js에서 위지 있어요와 또한 자연 언어 처리 예 "What is the weather in Cambridge?" 뭐라고 자연 언어 네요 영어입니다 라든지 일본어 문장을 숫자의 나열로 대체 이것은 한마디하고 싶은 것을로서는 캠브리지의 기상 정보를 가져와 원하는구나라는 명령으로 변환되어 있습니다 든가 그러한 학습을 ​​js 안에서만 수 있도록되어 있습니다 실제로 사용하고있는 고객은 Airbnb 같은 것은이 js 사용자 인터페이스에서 개인 정보이라면인가 민감한 이미지 여부를 판단하는 모델이 들어가 있기 때문에 손님이 위험 정보를 같네요 업로드하려고하면 "잠깐만 요"와 "이 따위 좋습니까"라는 대화를 팝업 및 UI에서 내 버려서 (청취 불가)으로 쓰기 전에 감지하고 있습니다 라든지 등등의 사용 예입니다 그리고 좋았던 것은 TensorFlow Graphics라는 새로운 라이브러리가있어서 이것은 말입니다 보통 지금 이미지 인식 더니 2D 2 차원 이미지 인식 네요 고양이이라고 개 이니 그게 아니라 3D 모델 이군요 Unity에서 사용하고 같은 저런 3D 데이터의 이미지 인식을 할 수 있도록 지금되고 있습니다 이것은 고양이 모델 이군요 라든지 또한 분할도 3D 모델에 있습니다 3D 모델 여기가 팔이라면인가 분할도 가능하게되어 있습니다 마지막 ML Fairness는 말을하고 싶습니다 다양한 이번에도 이러한 형태에서 AI의 재미있는 기능을 많이 발표되었지만 Google Image가 가장 힘을 쏟고있다 공통점은 그런 AI의 새로운 기능을 세계의 다양한 사람들에게 안심하고 사용하실 도움 도움말 전체의 AI를 목표로하는 곳이 주력하고 있습니다 예를 들어 AI는군요 아무 생각없이 만들어 버리면 데이터에 포함 된 편향을 반영 해 버리는군요 예를 들어 신발의 그림을 그려 달라는 식으로 말해 Google의 Quick Draw 프로젝트에서 모은 선화가 있습니다 그러나 대개 구두라고하면이 위의 파란색 운동화 같은 신발을 그린 버리는 사람이 많아서 아무래도 하이힐이라면인가 또는 국가마다 여러 형태의 신발이 있다고 생각 합니다만 문화에 의해 편향이 나오고 버립니다 그래서 결과 그런 데이터에서 AI를 만들면 이 아래쪽 하이힐의 이미지는 신발로 인식되고 어렵게 할 것이군요 그런 AI의 편향을 방지하기 위해 Google은 하나하고있는 것은 Open Images Extended Open Images라는 이미지군요 학습용 데이터 세트가 이미 합니다만 대체로 지금까지의 이미지 데이터라고하는 것은 구미를 중심으로 모아지고 있기 때문에 예를 들면 일본의 결혼식 사진을 보여줘도 웨딩 인식되지 않거나 라든지 그런 문제가 있네요 이 데이터 세트는 인도입니다 이라든지 아프리카이라면인가 중동 따위를 중심으로 모아지고 있기 때문에 그런 세계의 분들 편견없이 AI를 사용하실 데이터 세트로되어 있습니다 또 Fairness 표시하는 오픈 소스 도구도 공개되어 있습니다 이것은 완성 된 AI 기계 학습 모델 그런 문화입니다 이라든지 성별이라면인가 나이 등 차이에 따라 편차가 있는지 여부를 제대로 검증하기위한 도구 이것은 Google 사내는군요 그런 걸 옛날부터 실행되고 있습니다 만 그것을 여러분에게도 사용하기위한 도구를 제공합니다 예에서 이런 형태로 ML Fairness라고 생각하네요 이것은 Google이 제시 AI의 원칙 AI 원칙들 여기에서 두 번째 말이죠 AI에 의한 여기 언페어 바이어스가 발생하지 않도록 라는 중요한 생각의 하나가되고 있습니다 즉 Google이라는 것은 단순히 유용한 것을 만들뿐만 아니라 어떻게 세상에게 도움 풀 한 AI를 만들 것인가에 주력하고 있습니다 예라고하는 느낌으로 내게는 이상입니다

ML & AI sandbox demos at Google I/O 2019

[음악 재생] 안녕, 모두들 I / O 2019에서 ML & AI 샌드 박스에 오신 것을 환영합니다

그래서 기조 연설에서 우리는 놀라운 것들을 보았습니다 기기 기반 ML로 달성 할 수 있습니다 그리고 저는 TensorFlow Lite와 함께 왔습니다 개발자에게 동일한 내용을 작성하는 방법을 보여줍니다 그들 자신

그래서 당신은 물체 감지로부터 모든 것을 얻었습니다 이미지 분류 및 음성 인식 그리고 우리는 사람들에게 어떻게 배포 할 수 있는지 보여줍니다 정말 작아 보이는 장치들까지 단일 배터리로 몇 주 동안 작동합니다 따라서 TensorFlow Lite로 가능한 것을 실제로 보여주기 위해 Dance Like라는 놀라운 경험을 쌓았습니다

좋아 뒤에 나 같은 춤입니다 TensorFlow Lite를 사용하여 매우 재미있는 응용 프로그램입니다 TensorFlow의 모바일 및 임베디드 시스템 프레임 워크입니다 기계 학습을 실행하기위한 것입니다

기본적으로 사람들에게 춤 추는 법을 가르쳐줍니다 GPU에서 포즈 세분화를 실행하면됩니다 우리에게는 GPU 관련 작업들이 많이 있습니다 우리가 TensorFlow Lite를 위해 방금 릴리스 한, 그래서 당신은 그것들을 확인해야합니다 그것은 당신이 슈퍼 빠른 모델을 실행할 수 있습니다

우리는 실시간으로 두 개를 실행하고 사용자에게 피드백 힙은 춤을 잘 추는 데 도움이됩니다 정말 흥미로운 응용 프로그램을 구축하려면 휴대 전화, 임베디드 시스템, 이 모든 온 – 디바이스를 실행함으로써, TensorFloworg/Lite에 갈 수 있습니다 샘플 코드의 힙이 있습니다 많은 문서와 튜토리얼이 있습니다

그리고 댄스와 같은 놀라운 응용 프로그램을 만들 수 있습니다 세상에 좋아하고 그것을 세상에 공개하십시오 발표자 3 : 여기서 우리가보고있는 것은 PoseNet이라는 모델입니다 PoseNet은 훈련 된 모델입니다 인간의 이미지에, 그리고 훈련 된 그들의 골격 자세를 예측한다

이 모델은 실제로 완전히 실행됩니다 브라우저에 TensorFlowjs라는 라이브러리가 있습니다 TensorFlowjs는 JavaScript를위한 기계 학습 라이브러리입니다

브라우저에서 완전히 실행할 수 있습니다 WebGL을 통해 GPU를 사용하십시오 이제 TensorFlowjs는 Nodejs에서 전체를 사용하여 실행됩니다

TensorFlow C ++ 바이너리 및 모든 하드웨어 가속 그것 뒤에 저장 Piano Genie는 TensorFlowjs에서 완전히 실행되는 모델입니다 브라우저에서도 MIDI 음표를 생성합니다 피아노 연주의 일부로 이제이 모델은 흥미 롭습니다

인간을 루프에 넣고 모델이 실제로 갈 곳인 인간의 상태 TensorFlowjs는 오픈 소스이며 온라인에서 사용할 수 있습니다 TensorFloworg/js에는 여러 가지 예가 나와 있습니다

그것을 사용하는 방법의 데모 오늘 그곳으로 가서 기계 학습을 시작하십시오 브라우저에서

台客VLOG》舊金山 Google I/O 2019 今年的 A.I. 也太扯了吧?ft 阿滴,劉沛,Korea Grandma,Raqami TV,Kemio,Gita Savitri Devi

그가 말한대로 맞습니다 전 세계의 유튜브 (Youtuber)가 Google IO에 초대되었습니다

Google 2019 컨퍼런스 올해 Google의 최고 기술은 무엇입니까? 1 년 전 최고의 제품 중 하나가 인공 지능이었습니다 레스토랑이나 항공권 등을 주문할 때 도움을 줄 수 있습니다 Io2019 내 첫해 분위기는 단지 콘서트입니다 와 ~ ~ 매우 정각 다음은 멋진 2 분 버전입니다

이지도는 음악 축제와 매우 흡사합니다 여기에 많은 텐트가 있습니다 각각은 팀이 올해 개발하고있는 기술을 나타냅니다 다음으로, 우리는 장애인을 위해 특별히 설계된 기술을 살펴볼 필요가 있습니다 여기 슈퍼 스타는 우리 중 하나입니다

웹에서 3D 도구 다운로드 실제 공간에 두십시오 이것을 AR (Augmented Reality)라고 부릅니다 번역하는 방법? 그게 이번에는 내가 가장 특별하다고 생각하는 새로운 기술이어야한다 1 시간마다 다른 연설이 있습니다 Google은 Transgender (트랜스젠더) 소년과 소녀가 있으며, 소년과 소녀도 있습니다 편안한 몸은 더 혁신적인 아이디어를 가질 것입니다 그래서 시부야는 이것을 중요하게 생각합니다

하지만 지금은 시간 차이 때문에 매우 졸린 시차 30 분 동안 누워있을 수 있습니다

해가 추락하고있다 파티가 시작되었습니다 무료 음료 이것은 우리가 무너지고 책임지지 않을 경우를 대비 한 것입니다 그것은 그것이 의미하는 것입니까? (면책 조항) 오늘 뭐라고하니? 오늘의 I / O I / O 첫날, 당신의 경험은 무엇입니까? 오늘의 I / O에 대해 기분이 좋습니다! 올해 무료를 비교하는 것이 더 쉽습니다 나는 그 텐트에 가고 싶다 그리고 모든 Youtuber는 오늘과 다른 시각을 가지고 있습니다 Liu Pei의 주관적인 모습을 볼 수 있습니다

이 시간의 경험은 우리 아이가 프로그래밍 언어를 배워야한다는 것입니다 이것은 정말로 원한다 맞아 ~ 네 이것은 강력하고 (강력한)

Introducing AIY: Do-it-yourself Artificial Intelligence (Google I/O ’18)

[음악 재생] 빌 루앙 : 안녕하세요 AIY 입문 세션에 오신 것을 환영합니다

지금까지 I / O에 대해 모두 어떻게 됐습니까? 오늘 모두 좋은 점심 먹었 니? 예 승인 화면에서 볼 수 있듯이이 세션의 이름 AIY 소개 그러나 AI는 무엇입니까? AIY는 Google의 새로운 제품 라인입니다 당신 같은 개발자, 전 세계의 제조사, 인공 지능을위한 응용 프로그램을 만드는 방법 혼자서

그것이 AIY의 이름입니다 오늘 나와 함께 합류했다 개발자 관계에서 내 이름은 Bill Luan입니다 나는 Dushyantsinh Sebastian이 나와 합류했다

우리는 당신에게 현재의 AIY 제품 계열 그래서 우리가 시작하기 전에 동료들을 소개하겠습니다 그럼, Dushyantsinh 재수정 : 감사합니다, 빌 안녕하세요

내 이름은 두샨 in입니다 저는 인도의 Google 개발자 관계 팀의 일원입니다 나는 정말로 당신에게 AIY에 대한 놀라운 데모들을 보여주기 위해 여기에 흥분하고있다 스크립트 하지만 우리가 시작하기 전에 세바스챤을 초대 할거야

AI가 무엇인지에 대한 간단한 개요를 제공합니다 이 대화의 배경을 설정하십시오 SEBASTIAN TRZCINSKI-CLEMENT : 감사합니다, Dushyantsinh 직접 여기에와 주셔서 대단히 감사합니다 YouTube에서 시청할 수도 있습니다

나는이 매우 복잡한 성을 가진 Sebastian입니다 나는 아주 최근에 구글에 합류했다 약 11 년 전 그리고 우리 팀과 함께, 우리가 전 세계에서 무엇을하는지, 특히 신흥 시장에서 우리는 개발자와 신생 기업이 더 잘 구축 할 수 있도록 지원합니다 모바일 및 웹 애플리케이션

오늘 저는 AIY에 관해 당신과 이야기하고 싶습니다 하지만이 전에 DIY에 대해 이야기 해 보겠습니다 너 스스로해라 이게 뭔지 알아? 그것은 UFO가 아닙니다 실제로는 악기예요

아주 좋은 소리를냅니다 그러나 아니, 그것은 선사 시대에 발명되지 않았습니다 그것은 실제로 스위스에서 2000 년에 만들어졌습니다 스위스는 실제로 나라입니다 나는 공식적으로 여기있다

음, 그 때 제가 다른 UFO 중 하나에 있지 않을 때입니다 우리는 비행기를 호출합니다 왜냐하면 저는 제 팀을 방문하기 위해 꽤 많이 여행하기 때문입니다 이게 뭔지 알아? DIY 문화의 창입니다 인류의 역사에 대해 아주 간단히 설명하겠습니다

DIY를위한 식욕 그리고 책 "사피엔스 (Sapiens) 인류의 간략한 역사, "당신은 내가 무슨 말하는지 알지 우리의 인간 조상들은 이미 도구를 만들고 있었고, 아마 너도 알다시피 무기들, 도구들 돌과 나무를 사용합니다 이제 우리가 몇 세대의 인간을 건너 뛰면, 우리는 여전히 나무를 사용하여 물건을 만듭니다 이것은 나의 형제 중 하나이다, Mattias, 그리고 여동생, 리디아, 약 30 년 전 너랑 네 형제들, 똑같은 일을 했어 물건이나 뭐든지 다뤄 봤어

당신 손을 얹을 수 있습니다 이제 내가 빨리 전화를 걸어 보자 전자 시대 90 년대에 데스크톱 컴퓨터가 어떻게 나는 노트북에 대해서도 말하지 않고있다 데스크톱은 너무 비쌌습니까? 너 중에 누가 손을 보여줄지, 보러

예비 부품이있는 컴퓨터를 누가 만들었습니까? 네 나도 그랬어 네가 꽤 많이, 나는 유일한 사람이 아니야 누가 이것을 위해 너무 오래 됐어 이 애니메이션 이미지에서 볼 수 있습니다

오버 헤드 프로젝터와 LCD 분해 방법 저렴한 수제 비디오 프로젝터를 만드는 스크린 그런데 분명히 우리 엄마는 짜증이났다 모든 전자 장치가 거실의 모든 곳에 있기 때문입니다 그래서 그녀가 외쳤다 신선한 공기가 필요해

좋아 그래서 나는 밖에 나갔다 쓰레기 봉지 재사용 태양열 풍선을 만들 쓰레기 봉투 1 달러 그것은 나를 거의 들어 올릴 수 있습니다 하지만 언젠가는 거기에 갈거야

그러나 전자 제품의 매력은 너무 강했다 그래서 형제들과 나는 내 형제들과 내 형제 중 한 명으로 돌아 왔습니다 다른 하나, 플로리안 – 3D 프린터, 수제 3D 프린터로 시작되었습니다 이것은 내 다른 형제, 오른쪽에있는 형제입니다 왼쪽은 사실 박물관에있는 사진입니다

제가 말했듯이, DIY는 매우 초기부터 우리의 DNA에 있습니다 Google의 DNA에도 있습니다 4 년 전, Google 엔지니어가 파리 사무소 – 나는 파리를 언급했다 왜냐하면 나는 사실 프랑스 사람이야 이 엔지니어는 VR 플랫폼을 표시하기 위해 I / O에 왔습니다

그는 20 %의 혁신 시간 동안 골판지를 사용하여 건축했습니다 그로부터 2 년 전, Google에서 Daydream VR 플랫폼이라고 부르는 것입니다 여기 재미있는 것이 있습니다 제작자 문화는 모두 하드웨어에 관한 것입니다 한 편에는 물리적 인 대상을, 다른 한편으로는, 소프트웨어 -이 DIY 문화의 조합 해커 문화와 2006 년 이래로 Maker Faire에 대해 들어 보셨을 것입니다

주변에 제작자 공간이있을 수 있습니다 당신이 살고있는 당신의 도시에서는 아무도 없습니다, 그렇다면 왜 시작하지 않으시겠습니까? 이 메이커 공간 중 하나? 이 메이커 문화에 대한 좋은 점 당신이 손으로하는 것을 통해 배우는 것입니다 너는 실수를 저지를거야 그래서? 상관 없어요 그것은 배우고, 새로운 것을 시도하는 아주 좋은 방법입니다

서로 배우고 새로운 응용 프로그램을 찾습니다 그 기술로 만들 수 있습니다 당신의 배경은 중요하지 않습니다 사실 믹스 앤 매치가 가능할 때 더 좋습니다 기술의 새로운 응용 프로그램을 찾는 다른 도메인

이제 무엇이 있는지 살펴 보겠습니다 지난 몇 년 동안 일어났다 이제 라스베리 파이와 같은 마이크로 컨트롤러가 생겼습니다 구름이 더 싸게되었습니다 리튬 배터리는 더 저렴 해졌습니다

당신은 리튬 배터리, 그 비용, 지난 8 년간 80 %가 감소 했습니까? 그리고 인공 지능, 인공 지능, 특히 어제부터, 그리고 개념들 기계 학습, 심 신경 네트워크와 유사합니다 복잡하게 들리는군요, 그렇죠? 그럴 필요는 없습니다 그럴 필요는 없습니다 그리고 이것이 AIY와 함께하는 이유입니다 우리가 작년에 소개 한 AI, 인공 지능, 너는 재미있게 놀 수있다

이 메이커 문화의 아이디어 무엇보다 먼저, 이 경우에는 인공 지능을 사용하여 재미를 느낄 수 있습니다 우리는 AI를 당신의 손에 문자 그대로 넣고 싶습니다 실제 문제를 풀 수 있습니다 우리의 AIY 키트는 오픈 소스입니다 그들은 하드웨어와 소프트웨어를 결합합니다

AI는 장치 자체에 직접 통합됩니다 앞서 언급 한 본질은, 쉽게 사용할 수있는 구성 요소를 사용하여 저렴한 비용으로 유지하는 것입니다 행성의 거의 모든 곳에서 찾을 수 있습니다 그리고이 키트는 조립이 매우 쉽습니다 Dushyantsinh, 얼마나 오래 걸릴까요? 이 키트 중 하나를 조립 하시겠습니까? 재서야 : 15 분에서 30 분

세바스챤 TRZCINSKI-CLEMENT : 15, 30 분 좋아요 한 시간은 엄마가 나는 매우 어색하다고 말하려고합니다 고마워 엄마 그녀가 지켜보고있는 것을 안다

따라서이 키트를 조립하는 데 한 시간 이상 걸리지 않도록하십시오 Dushyantsinh와 빌 바로 직후에, 단 몇 분만에, 이 키트 중 일부를 보여줄 것입니다 당신이 그들과 함께 할 수있는 것 – 보이스 킷과 비전 전부 그러나 우리와 함께있어 라 다가오는 몇 주와 앞으로 몇 달 안에, 그 공간에서 더 많은 발표가있을 것입니다

이제 한번 살펴보고 이것으로 마무리하겠습니다 당신 중 일부는 이미 만들었습니다 이 예에서는 몇 초 만에 여러분을 보여 드리겠습니다 프로그래밍 경험이없는 16 세 다음 유스 케이스를 제시했다 약 20 초 동안 비디오를 재생 해 봅시다

LAWRENCE : New York Yankees 야구 모자를 구입하십시오 이제 실제로 무슨 일이 벌어지고 있습니까? 음성 키트 : 완료 로렌스 : 그래서 그녀는 방금 말 했잖아, 그렇지? 그래 LAWRENCE : OK 그래서 실제로 무슨 일이 일어 났습니까? 그 일이 끝났을 때, 그것은 eBay에서 찾은 후 내 이메일에 대한 링크를 보냈습니다

따라서 온라인 결과를 찾고, 이메일에 링크를 보내고, 나는 그 사람들을 받게 될 것입니다 클릭하고 구입하십시오 세바스챤 TRZCINSKI-CLEMENT : 그렇다면 로렌스와 고등학교 아이와 여기서 일어났어 제품을 사러 갔다 처음에 그렇게 들었는지는 모르겠다

"나는 야구 모자를 사고있다" 그리고 그것은 결과를 위해 eBay에서 검색하고 있었고, 장치가 완료된 직후에 이메일로 전송되었습니다 그럼 코드를 살펴 보겠습니다 그것은 단지 여러분이 처음에 들었 으면, "나는 야구 모자를 사고있다 그리고 이베이에서 결과를 찾고 있었고, 바로 다음에 [오디오 출력]에 이메일이 전송되었습니다

장치가 완료되었습니다 그럼 코드를 통해 [오디오 아웃]을 가져 오도록하겠습니다 처음에 들었 으면 그냥 [오디오 출력]입니다 나는 야구를 위해 쇼핑 중입니다 [AUDIO OUT] 우리는 결과에 대해 eBay에서 검색하고 있습니다 [오디오 출력] [AUDIO OUT] 직후에 이메일을 통해 이메일을 받았습니다 처음에 들었 으면 그냥 [오디오 출력]입니다

나는 야구 모자를 사러 간다 [AUDIO OUT] 코드를 통해 그냥 들었 으면 [오디오 아웃]입니다 처음에는 나는 야구 모자를 사러 간다 [AUDIO OUT] 동영상에서 모든 결과가 기억납니다 이메일을 통해 전송됩니다

여기에 코드가 있습니다 우리는 각 결과를 처음부터 끝까지 살펴볼 것입니다 코드의 라인을 그곳에 올려 놓고 이것을 이메일로 포맷하십시오 경험이없는 사람이라도 인정할 수 있습니다 프로그래머, from, to, subject 등이 있습니다

그게 전부 야 아무것도 더 우리가 할 마지막 일은 바로 연결하는 것입니다 서버, 전자 메일 서버에 보내고 전자 메일을 보내면됩니다 장치가 "완료"라고 말하도록하십시오

그게 전부 야 더 이상 아무것도 없습니다 말 그대로 복사하여 붙여 넣을 수 있습니다 효과가있을 것입니다 이제 AIY로 일을 할 차례입니다

그리고 당신이 충분히 영감을받지 못했다면, 지금 Dushyantsinh를 무대에 올 테니 음성 키트로 데모를 할 수 있습니다 귀 기울여 주셔서 대단히 감사합니다 그리고 Dushyantsinh를 무대에 다시 맞이하십시오 JUSA : 더 감사합니다, Sebastian

내 이름은 Dushyantsinh이고 개발자 관계의 일부입니다 Google 팀 그리고 모두와 마찬가지로, 우리 모두는 가능성에 흥분하고 있습니다 인공 지능이 우리 앞에서 옳은가? 이것은 더 의미 있고 더 영향력있게됩니다 우리 모두가 접근 할 수있을 때 이 멋진 플랫폼 Google은 업무와 발전을 공유했습니다

인공 지능 분야 제품을 구축하고 연구 논문을 공유하며, AIY 키트를 사용하면 더 많은 사람들에게 더 장난기있는 방식으로 데려가, 그러나 그것은 당신이 풀 수있을 정도로 강하다 정말 좋은 문제들 그럼 우리가 그 중 일부를 해결할 수있는 방법을 보도록하겠습니다 그리고 우리가이 키트를 함께 생각할 때, 너의 생각, 무슨 말이, 무엇 이걸 사람들 앞에 놓는 게 옳은가? 그리고 물론, 목소리도 그 중 하나였습니다 그것은 아주 분명했습니다

우리 모두는 말하기를 좋아합니다 우리가 놀 수있는 힘이 있다고 상상해보십시오 목소리로 얼마나 즐거웠 을까요 기조 연설에서 언급 한 [INAUDIBLE] 어제 WaveNet에 대해, 당신이 다른 목소리를 어떻게 만들 수 있는지 그래서이 데모에서 나는 단지 이야기 할 것입니다

AIY 키트의 기능에 대해 클라우드 음성 API 및 Google Assistant API 사용 그러나 물론 이것보다 훨씬 많은 것이 있습니다 보이스 킷은 작년 중반에 출시되었습니다 내가 틀렸어도 많은 관심을 받았어 보이스 킷에는 기본적으로 몇 가지 소프트웨어가 결합되어 있습니다 일부 하드웨어가 있습니다

그것은 라스베리 파이 재단과 함께 판매되었습니다 우리는 기존 제조업체로부터 얻을 수있는 피드백을 확인합니다 지역 사회와 우리의 제안을 개선하려고합니다 우리는 음성 키트의 두 번째 버전을 출시했습니다 언젠가 1 월에 모든 피드백을 통합 할 것입니다

원 박스 구성 요소 키트로 모든 것을 만들 수 있습니다 그래서 그것이 당신이 오늘 얻는 것입니다 AI 웹 사이트에 가서 음성 키트를 살펴 본다면, 이것은 당신이 아마 거기에서 발견 할 것입니다 그러나 키트에는 무엇이 들어 있습니까? 하드웨어 관점에서 보면 Raspberry Pi Zero, 기본적으로 음성 보닛이 있습니다 당신을 위해 오디오 프로세싱을 수행하는 하드웨어 조각, 보이스 보닛에는 다른 구성 요소가 있습니다

마이크가 있고, 코덱, 마이크로 컨트롤러, 일반 다목적 입력 출력 및 아케이드 버튼 기본적으로 시각적 인 표시를 제공합니다 어떤 시점에서든 보이스 킷을 사용하면됩니다 그리고 소프트웨어 관점에서 볼 때, 기본적으로 Raspbian Linux에서 실행됩니다 Google Assistant API를 사용하고 Cloud Speech API를 사용합니다 그러나 물론, 당신은 그것으로 많은 것을 할 수 있습니다

이것은 단지 보이스 킷의 표면을 긁적입니다 그럼 어떻게 시작할 수 있니? 매우 간단합니다 3 단계 프로세스로 생각하십시오 1 단계는 키트 조립에 관한 것으로, 2 단계에서 기기를 설정하는 중입니다 3 단계는 모든 것을 설정 했으므로 당신은 스스로 해결할 수있는 몇 가지 솔루션을 만들 수 있습니다

키트를 여는 경우 이것이 보이는 모양입니다 우선 모든 요소가 올바른지 확인하십시오 골판지, 모든 다른 하드 우드 웹 사이트에 언급되어 있습니다 모든 구성 요소가 준비되어 있는지 확인하십시오 함께 조립하기 전에 확인한 후에는 다음 단계로해야합니다

엔진을 만드는 것입니다 자동차를 만드는 것으로 생각하십시오 당신은 엔진을 만들고있어 라즈베리 파이를 넣을거야 음성 보닛을 함께 사용하십시오 일단 당신이 엔진을 조립하면, 이제는 섀시를 만들고 있습니다

그래서 그것은 당신의 차를위한 구조의 종류입니다, 또는 보이스 킷을위한 구조 그래서 당신은 기본적으로 골판지를 가져 가야합니다 그것은 스피커의 구조를 갖게됩니다 골판지를 만든 다음에는 엔진을 넣으십시오 당신은 그 안에 라스베리 파이와 보닛 보닛을 넣습니다

그게 전부 야 그것은 아주 쉽고, 아주 재미 있습니다 나를 위해, 처음 시도했을 때 뭔가가 걸렸다 약 15 ~ 20 분 하지만 너희들은 많이, 많이 있다고 확신한다

당신보다 더 빨리 나아갈 수 있습니다 여기에서 중요한 것은 빨리하지 말고, 그렇게하십시오 그것에서 좋은 재미 방법으로 그래, 그래 그게 전부 야

음성 키트를 조립했습니다 2 단계는 기본적으로 기기를 설정합니다 이 시점에서, 당신이 원하는 것 할 일은 이제 내 장치가있다 또는 내 보이스 킷은 어느 정도 좋은 모양과 형태로 존재합니다 내가 그것에 목소리를 내 보자

모든 것이 잘 작동하는지 보도록하겠습니다 그래서 이미 음성 키트가 있습니다 여기, 그리고 내 보이스 킷으로 돌아갈거야 모든 것이 잘 작동하는지 확인하십시오 따라서 시작하기 전에 모든 것을 갖춰야합니다

너를 위해 달리기 따라서 네트워크에 연결되어 있다고 가정 해 보겠습니다 이것은 유선 네트워크이거나 무선 네트워크 일 수 있습니다 또는 휴대 전화에서 테 더링하는 경우, 본질적으로 어떤 종류의 연결이있다 보이스 킷을 인터넷에 연결해야하기 때문입니다

Google Assistant 및 Speech를 사용하고 있습니다 인식을위한 API 온라인 상태인지 보겠습니다 좋은 나는 인터넷 관점에서 모두 설정 한 것 같습니다

내 오디오가 잘 작동하는지 확인해 보겠습니다 키트의 오디오가 잘 작동하는지 확인하십시오 VOICE KIT : 프론트, 센터 재스민 : 자존심 내 목소리가 들리는 지 보자

테스트 하나 둘 셋 VOICE KIT : 테스트 하나 둘 셋 재스민 : 자존심이 좋아 보인다

이제 거의 다 됐습니다 좋은 점은 보이스 킷에는 미리 만들어진 데모도 포함되어 있습니다 그것들이 너보다 먼저 잘 보이는지 보는 것도 좋다 자신을 만들기 시작하십시오 Pi 디렉토리로 가서 Pi10 음성을 보면 여기 예제가 있습니다

그리고이 라이브러리 데모를 사용해 보겠습니다 안녕, 구글, 지금 뭐야? VOICE KIT : 1:50입니다 재수정 : 감사합니다 그래서 당신은 많은 것들을 시도 할 수 있습니다 내가 뭘하고 있었는지는 내가 방금 테스트 중이 었어

일이 잘 작동하면 지금 당연히 당신은이 시점에서 물어볼 수 있습니다 다른 질문들 이제 상황이 괜찮은 것 같습니다 내가 무언가를 만들 수 있는지 아닌지를 알려주지

다시 발표하겠습니다 슬라이드로 돌아갈 수 있을까요? 네 따라서 기기가 정상적으로 작동하는지 항상 확인하는 것이 좋습니다 혼자서 건물을 짓기 전에 저는 전형적인 쇼핑 경험을 쌓았습니다

잘하면 잘 작동하지만 잘보아야합니다 세트가 실제로 표까지 아니었기 때문에, 한 번만 더 해보 죠 데모로 전환 할 수 있습니까? Sebastian이 보여 주었던 것처럼, 그는 코드를 보여주고있었습니다 음성 조종사에게 명령을 내리는 것이 대부분이었습니다 말하라

뭔가 사러 가라 그리고 나서 그것은 텍스트를 식별하려고 시도하고있었습니다 API 중 하나를 호출하고있었습니다 내가 믿고 이베이에서 왔고 근본적으로 결과의 일부를 먹이려고 노력한다 이메일로 보내십시오

비슷한 행동을 모방하려고했습니다 데모 코드가 나와 함께 있는지 봅시다 그래서 지금이 시점에서 제가하고있는 일은, 그냥 쇼핑을하러 갈거야 어머니의 날이 다가오고 있기 때문에 그리고 나는 그 시간에 맞추지 않을 것이고, 나는 원한다 우리 엄마 한테 무언가를 보냈어

그리고 나는 생각하고 있었다, 무엇이 재미있을 수 있었느냐? 외관상으로는 smartwatch는 큰 것이다, 그래서 나는 생각했다, 좋아, 아마 내가 그녀에게 smartwatch를 줘 보자 보이스 킷을 사용하여 스마트 워치를 찾을 수 있는지 보겠습니다 안녕, 구글 smartwatch를 구매하십시오 시원한

음성 키트 : 완료 DUSHYANTSINH JADEJA : 그래서 당신이 한 일을 보면, 그것은 기본적으로 내 목소리 또는 내 명령을 인식, 특정 서비스와 연결되어, 나와 사용할 수있는 스마트 워치를 표시했습니다 구매에 그리고 지금,이 시점에서, 저는이 결과를 얻을 수 있습니다 세바스찬이 언급 한 것처럼 이메일을 보냅니다

또는 스마트 디스플레이 장치가있는 경우, 나는 기본적으로 그곳에 게시 할 수 있고, 좋은 시각적 인 목록을 줄 수 있으며, 이것들과 같은 것들이 있습니다 또는 나는 조금 더 대화에 참여할 수있다 그것으로 슬라이드로 다시 이동할 수 있습니까? 하지만 할 수있는 일이 많습니다 맞습니까? 내가 여기서 강조하려고했던 것 장치로 가능한 많은 것들이 있다는 것입니다

당신이 그걸 가지고 놀 수있는 곳 또한 소프트웨어를 하나의 소프트웨어로 볼 수는 없습니다 그것의 측면,하지만 당신은 또한 실험 할 수있는 몇 가지 하드웨어에있는 것들을 그래서 우리는 오래된 장난감을 가지고있는 사람들을 보았습니다 보이스 키트 (Voice Kits) 또는 다른 AIY 키트 시체를 소생 시키거나 그 장난감에 생명을 불어 넣으십시오 우리는 사람들이 보이스 킷용 선반을 사용자 정의하는 것을 보았습니다

기기 리믹스를 한 사람이 있습니다 Roomba 진공 청소기에 음성과 시각을 제공합니다 그럼 당신은 그들에게 말할 수 있습니다, 좋아, 하지마 집의 이쪽으로 가면서 다른쪽으로 가라 집 섹션의

또는 완전한 사용자 지정 음성 액션을 만들 수도 있습니다 그래서 많은 것들이 가능합니다 만약 당신이 그것에 대해 더 알고 싶다면, Instagram 또는 Twitter에서 우리를 팔로우 할 수 있습니다 또는 AIY 프로젝트로 Reddit에 대한 토론을 따르십시오 그걸로 빌에게 무엇이 더 필요한지 더 많이 알리도록하겠습니다

Vision Kit에서 발생합니다 빌 루앙 : 고마워 Dushyantsinh, 감사합니다 [INAUDIBLE] OK? 괜찮아 AIY 제품의 두 번째 제품 라인을 계속 사용하겠습니다

가족이 볼 수 있듯이 비전 키트입니다 비전 키트는 비교적 새로운 제품으로, 작년 말에 방금 발표되었습니다 우리는 새 버전 업데이트를했습니다 올해 1 분기 그래서 최신 버전은 1

1입니다 여러분이 보시다시피, 작년 12 월에 출시되었습니다 그것은 최신 라즈베리 파이 제로와 WH, 헤더가 보드에 납땜됩니다 따라서 초기 버전에서는 문제가 없습니다 핀을 직접 솔더링해야합니다

훨씬 쉽습니다 그것은 라스베리 파이 카메라 버전 2, Google에서 만든 Vision Bonnet 회로 기판, 그리고 그것은 모든 소프트웨어, 하드웨어, 인공물 인텔리전스에서 Google이이를 제품에 넣었습니다 비전 [INAUDIBLE]에 있습니다 이 특정 제품의 가장 독특한 것들, 인터넷에 연결할 필요가 없습니다 비전 인식 소프트웨어로 작업 할 수 있습니다

혼자서 그 상자에 따라서 시작하기 전에 자료 목록을 살펴 보겠습니다 Dushyantsinh가 보이스 킷 (Voice Kit)을 위해했던 것 – 비슷한 것 앞서 언급 한 것처럼 하드웨어 측면에서 볼 때, 그것은 최신 라즈베리 파이 제로 보드와 카메라를 가지고 있으며, Google이 Vision Bonnet을 제작했습니다 이 Vision Bonnet 회로 보드에는 Intel 비전이 포함되어 있습니다

인식 프로세서는 모든 컴퓨팅 기능을 갖추고 있습니다 비전 인식을 도와주는 힘 그 외에도 카메라 지원 기능이 있습니다 Raspberry Pi 케이블에 연결되어 있습니다 커넥터

또한 범용 입력 출력, 소위 GPIO 커넥터를 사용하면 나는 더 많은 일을 할 것이고, 나는 곧 다룰 것이다 또한 암호화 칩이 내장되어 있습니다 신호를 암호화하여 증권을 추가 할 수 있도록 도와줍니다 응용 프로그램의 측면에서 그런 다음 소프트웨어 측면에서 – 아, 버튼도 있습니다

골 판지 형태로 장치를 접을 수 있습니다 소프트웨어 측면에서 운영 체제는 동일합니다 그것은 Linux Raspbian 운영 체제에서 실행되며, TensorFlow, 이른바 Inception이 포함됩니다 그리고 사운드 장치 인 MobileNet 소프트웨어, 이 장치로 작업 할 인공 지능 모델을 만들 수 있습니다 AI에서 응용 프로그램을 수행 할 수 있습니다

그것은 얼굴 인식을위한 소프트웨어가 내장되어 있습니다 뿐만 아니라 일반 물체 인식 그래서이 모든 소프트웨어가 장치에있어 사용할 준비가되었습니다 그리고 그 구성 요소의 관점에서, 좀 더 자세히 설명해 드리겠습니다 비교적 새로운 제품입니다

하단의 하드웨어 수준에서 머리가 납땜 된 라스베리 파이 제로입니다 내가 말했듯이, 라스베리 파이 제로는 Wi-Fi가 내장되어 있습니다 및 블루투스 지원 인터넷에 연결할 수 있습니다 인터넷에 연결된 Wi-Fi가있는 케이블없이 원하는 경우 GPIO 연결을 통해 직접 연결할 수 있습니다

플렉스 케이블을 사용하여 Google Vision Bonnet 회로 보드에 연결합니다 추가 플렉스 케이블과 함께 그 회로 기판, 파이 카메라뿐만 아니라 추가 액세서리에 연결, LED, 푸시 버튼, 버저 등이 있습니다 기기에 부저가 있습니다 귀하의 신청서가 필요한만큼, 당신은 소리를 낼 수 있습니다 그런 다음 소프트웨어 측면에서 동일한 Linux Raspbian에서 실행됩니다

운영 체제 및 프로그램 파이썬 코드로 모두 실행되므로 파이썬 인터프리터가있다 그 위에 그리고 Google의 소프트웨어는 당신이 원한다면 3 개의 다른 모듈을 포함합니다 분할 프로세스의 측면에서 첫 번째는 TensorFlow 모듈입니다

비전 시작입니다 둘째, 안면 감지 기능이 있습니다 소프트웨어, 그리고 셋째, 그것은 객체 감지 소프트웨어를 가지고 있습니다 따라서 이러한 소프트웨어가 탑재되어 있고 이러한 모든 하드웨어를 사용하면, API 과정을 통해 애플리케이션 작성 이러한 구성 요소와의 인터페이스 이것이 모든 것을 하나로 모으는 방법입니다 그런 다음 같은 과정을 거치도록하겠습니다

Dushyantsinh는 보이스 킷의 관점에서 언급했습니다 그래서 첫째로, 당신은 그것을 조립합니다 조립 측면에서 매우 비슷합니다 상자를 구입했는데,이 부분, 판지 등이 있습니다 화면에서 볼 수 있듯이 프로세스 측면에서 볼 때, 건물은 비교적 쉽습니다

기본적으로 라스베리 파이를 비전과 연결합니다 보닛 – 오렌지색 케이블을 가진 케이블 – 그것들을 서로 연결하고 함께 쌓은 다음 골판지 상자를 접고이 모듈을 가운데에 삽입하십시오 거의 당신이 자동차에 엔진을 넣은 것처럼, Dushyantsinh가 언급했듯이 – 버튼을 연결하면됩니다 처음 40 분 동안 이걸 만들었습니다 두 번째로 그것을 만들었지 만 20 분 밖에 걸리지 않았습니다

그래서 매우 간단합니다 사실, 나 자신을위한 플러그가있다 나는 그것을 YouTube에 조립하는 방법에 대한 비디오 튜토리얼을 만들었습니다 따라서 지침을 읽지 않으려는 당신의 경우, 당신은 비디오를 볼 수 있습니다 그러나 그것은 매우 쉽고 간단합니다

승인 괜찮아 축하합니다 한 시간도 채 안되면 단숨에 빌드 할 수 있습니다 그런 장치

확인의 측면에서 설정, 이것은 매우 간단합니다 내가 말했듯이 이것은 반드시 인터넷에 연결해야합니다 따라서 연결은 전원 공급 장치 만 있으면됩니다 전원 공급 장치가 연결되어 준비가되었습니다 얼굴 인식 소프트웨어 때문에 우리는 당신이 힘을 얻은 후 장치에 내장했습니다

그것은 자동으로 얼굴 탐지 소프트웨어를 실행합니다 그래서 지금, 책상 위에, 나는이 Vision Bonnet을 가지고있다 나랑 그리고 당신이 볼 수 있듯이, 최고의 LED가 푸른 빛 – 버튼이 켜졌다 이제 내가 이걸 내 얼굴을 가리키면 볼 수 있듯이, 카메라를 나타내는 푸른 빛이 내 얼굴을 잡아 먹고 있습니다

웃는 얼굴, 행복한 얼굴로 카메라에 보여 주면, LCD의 밝은 색이 노란색으로 바뀝니다 그리고 내가 얼굴을 찡그린다면, 그것은 푸른 색으로 되돌아 갈 것입니다 그래서 이것을 설명하겠습니다 다들 볼 수 있니? 권리? 색상이 바뀝니다 자, 이것이 어떤 종류의 마술이 아니라는 말입니다

일할 때 인공 지능입니다 무슨 일이 있었는지, 그것은 AI와 함께 내부 소프트웨어입니다 얼굴 인식이있는 TensorFlow 모델 – 사실, 나는 1 분 안에 그것에 갈거야 얼굴 인식 소프트웨어를 만들 수 있습니다 따라서 설정이별로 없습니다

전원을 켜고 전원을 연결 한 다음, 얼굴 인식도 할 수 있습니다 이 데모를 Joy Detection이라고합니다 이는 기기와 함께 제공되는 제품의 일부입니다 괜찮아 그래서 조립이 매우 쉽고, 셋업이 매우 쉽습니다

자신 만의 솔루션을 만드는 방법 당신이 할 수있는 많은 소프트웨어가 있습니다 그리고 또 다른 데모를 해보 죠 화면을 다른 장치의 출력으로 전환하십시오 지금 볼 수 있듯이 나는 Raspbian 소프트웨어를 실행하고 있습니다

운영 체제가 있고 소프트웨어를 보여주는 창이 있습니다 간단한 데모를 시작하여 객체 분류입니다 그래서 데모부터 시작하겠습니다 오른쪽에있는 화면에서 볼 수 있습니다 옆에 카메라가 있고 비디오 이미지가 캡처됩니다

카메라로 그리고 테이블 위에 나는 사과와 바나나를 가지고 있는데, 코카콜라도 할 수 있습니다 이것은 내가 조합 한 임의의 객체입니다 이제 보시다시피 화면 왼쪽에 시작 아웃 출력 스트림이 있습니다 물체 분류에 따라 화면에 둡니다

우리가 장치에 넣은 소프트웨어 이제, 나는 그 모든 것을 잠시 후에 설명 할 것입니다 먼저 데모를 해 보겠습니다 이 점을 바나나에게 알려주지 그리고 당신은 스크린의 왼편에서보아야합니다

이 물건을 발견했다고 말할 겁니다 바나나, 바래요 이제 사과를 가리키면 사실 사과인지 알게 될거야 할머니 스미스라고해야합니다 실제로 사과의 종류를 인식합니다

그리고 이미 이전에 시도 했었는데, 나는이 코카콜라가 할 수 있음을 지적했다 나는 그것이 무엇을 말할 지 모르지만, 더 일찍 나에게 말하고 있었다 그것은 펀치 백이라고 생각합니다 글쎄, 펀치 백은 붉은 색이야 이렇게 생겼어

그러니 그 신청서를 중단하고 이 창은 조금 더 커 그리고 왼쪽에서 볼 수 있듯이, 첫 번째 열 번호, 그것은 물체 인식입니다 그것은 그것을 인식합니다 그것은 그것이 바나나라고 말합니다 그 이후의 숫자는 소위 신뢰 점수입니다

AI가 이것이 바나나라고 생각하는 것에 대해 자신감을 갖거나 유사하게, 할머니 스미스 사과 인 사과에게 이 신뢰 수준은 인식 부분을 알려줍니다 진정으로 그것이 발견하는 대상이라고 생각합니다 이 숫자들, 소프트웨어로부터의 이러한 종류의 피드백, 당신은 많은 응용 프로그램을 만드는 데 사용할 수 있습니다 슬라이드로 다시 전환하십시오

당신이 볼 수 있듯이 화면의이 이미지는 아주 비슷 하죠? 그것은 신뢰 점수와 함께 물체를 인식했다 이 번호를 사용하여 응용 프로그램을 디자인 할 수 있습니다 비전 키트로 정확히 무엇을 할 수 있습니까? 음, 제가 말했듯이, 당신은 이미 그것을 볼 수 있습니다 객체 탐지를 수행합니다 그리고 그것은 얼굴 탐지를 가지고 있습니다 – 이것들에 내장 된 소프트웨어와 API 과정을 통해 당신은 이것을 활용할 수 있습니다

자동으로 사진, 비디오 및 사진을 찍을 수 있습니다 응용 프로그램에 출력을 보냅니다 이미지 분류가 있습니다 보았다, 사과와 바나나에게 말할 수있게, 그리고 다른 것들을 한꺼번에 그러나 조이 디텍트 (Joy Detect)가 입증 한 것처럼 가장 중요한 것은, 당신은 자신의 인공 지능 기계 학습 소프트웨어를 실행할 수 있습니다 이 장치에서 사용자 정의 된 TensorFlow를 작성하여 모델

이제 여러분 중 일부는 생각할 수도 있습니다 어떻게해야합니까? TensorFlow 모델을 구축한다는 측면에서 다소 혼란 스럽습니다 그것은 매우 강력한 것입니다 어떻게 그걸합니까? 괜찮아 그래서 당신에게 과정을 소개하겠습니다

맞춤형 모델은 어떻게 처리합니까? 그래서 우선, 첫 번째 숫자 – TensorFlow로 구축 한 모든 기계 학습 모델, 당신은 훈련 할 모델을 만들고 있습니다 따라서 자신의 모델을 지정하고 교육하는 것이 첫 번째 단계입니다 두 번째 모델은 다른 TensorFlow 모델과 마찬가지로, 당신은 최종 결과를 얻는다, 당신은 소위 수출 모델을한다 소위 고정 그래프로 어떤 모델이든, 고정 된 그래프를 생성 할 수 있습니다 그러나 고정 그래프는 자체 포맷을 가지고 있습니다

이 형식은 Vision Bonnet 하드웨어에서는 이해할 수 없습니다 그렇게 여하튼, 우리는 경기를해야합니다 일치가 다음 단계 일 때, 소위 컴파일러입니다 Google은 이른바 보넷 모델 컴파일러를 제공합니다 고정 그래프 바이너리 코드 가져 오기 컴파일 된 코드를 통해 컴파일을 실행하십시오

자신 만의 맞춤형 컴퓨터 그래프를 생성합니다 따라서 사실상 다른 것은 최종 결과에서, 당신은이 세 단계를 거치고 있습니다 바이너리 파일이 있습니다 이 파일은 귀하의 기계 학습 모델을 정의합니다 그런 다음 하드웨어 측면에서 물론 우리는 Raspberry Pi, 비전 보닛이 있습니다

Raspberry Pi에는 Python 프로그램이 있습니다 API 과정을 사용하고,이 컴퓨터 그래프를 보내고, 원한다면 Vision Bonnet에 다음 단계는 코드를 작성하는 것입니다 자습서 및 예제 모델을 살펴볼 수 있습니다 모델 함수의 코드, 기본적으로 이 컴퓨터 그래프를 Vision Bonnet으로 보냅니다

이 특별한 경우에, 컴퓨터 그래프 비전 보닛이 일치합니다 그들은 무슨 일이 일어나고 있는지 이해합니다 그리고 나서 카메라를 타고 가다 모든 입력 이러한 입력은 2 진수로오고 있습니다

그러나이 컴퓨터 그래프 때문에, 우리는 기계 학습에 관계없이 이러한 입력을 조정합니다 기본적으로 묶이는 텐서 다차원 어레이 이제 다음 단계는 일치해야합니다 이 텐서, 배열 묶음, 당신의 모델로 이미지 이것이 바로 우리가이 컴퓨팅이라고 부르는 것입니다 기본적으로 단계는 프로그램을 작성하는 것입니다

당신은이 Vision Bonnet 하드웨어를 가지고 있습니다 계산을 수행하고 신호를 보냅니다 출력합니다 여기 코드가 있습니다 당신이 볼 수 있듯이 어떻게 당신의 얼굴을 정의합니까? 얼굴 개체는 경계 상자, 얼굴 점수 및 기쁨 점수

당신은 그와 같은 인수 코드를 작성합니다 이것이 당신의 구조입니다 당신은 그것을 구조로 보내고, 나의 모델에서는, 4 명이 있으려면이게 필요해 그리고이 4 가지 숫자는 제 기계 학습 모델과 일치합니다 마지막으로 애플리케이션 코드에서 방금 말한대로,이 텐서에서 결과를 얻도록하겠습니다

여부를 기쁨 점수, 얼굴 점수, 뭐든간에, 당신은 그것을 최종 결과로 가져갑니다 그리고 당신은 결정을 내리고 말할 수 있습니다, 점수는 어떤 숫자보다 큰 숫자를 기반으로합니다 내 색 빛을 바꿔라 그래서 이것은 당신이 말한 것과 정확히 똑같습니다 자신의 기계 학습 모델 사용하기 비전 키트와 함께

괜찮아 그래서 프로젝트를 확장하는 것에 대해 이야기 해 봅시다 우리는 소프트웨어에 대해 이야기했지만 하드웨어는 어떻습니까? AIY 보드에는 내가 지적한 빨간색 원이 있습니다 추가 GPI 핀이 있습니다 이러한 핀을 사용하면 출력을 제어 할 수 있습니다

불을 켜고, 팬을 켜고, 네가 할 수있는 일이라면, 소리내어 보내라 따라서 이러한 것들을 통해 프로젝트를 확장 할 수 있습니다 그리고 그 컨트롤을 보드에 추가하면 더 많은 일을 할 수 있습니다 하드웨어 적으로 대부분의 일을 할 수있는 제작자입니다 괜찮아

그래서 우리는이 모든 것을 통과했습니다 우리는 조립에 대해 이야기했습니다 어떻게 설정합니까? 어떻게 자신의 일을합니까? 그리고 가장 중요한 것은, 나는 AIY를 사용하기를 원한다 AIY의 힘은 정말로 연결되어있다 Google과 같이 제공되는 많은 서비스 TensorFlow와 같은 조수

이 모든 서비스 기능을 활용하고 싶습니다 AIY는 글로벌 오픈 소스 커뮤니티의 일원입니다 우리는 GitHub에 이것을 게시하고, Raspberry Pi와 함께 작업합니다 Foundation, 우리는 Hackster, 그래서 온라인 메이커에 몰두하십시오 전세계 커뮤니티

그리고 이것은 제작자를 만드는 재미의 일부입니다 알았어 나는이 기회를 빌어 서 모두에게 말하고 싶다 여기 관중 들어, 미국에서 온 사람들, 지금 진행중인 콘테스트에 참가할 수 있습니다 해커 스터 (Hackster)와 중국 교육부 (Ministry of Education) 이른바 영미 중공업 대회 (Young-China Makers Contest)라고 불린다

우승자는 중국으로 모든 비용을 지불해야합니다 방 안에있는 당신들, 당신은 미국 제조사들입니다 이 콘테스트에 참가하십시오 Hackster의 웹 사이트에 대한 자세한 내용 괜찮아

오늘 우리의 대화에서 가져온 열쇠, Sebastian과 Dushyantsinh의 언급 그 이야기의 일부에서, 그리고 나의 것, 중요한 테이크 아웃은, 자원별로, 글로벌 AIY 웹 사이트 이 주소는 aiyprojectswithgooglecom입니다 키트는 지금 구매할 수 있습니다 미국의 대상 상점에서 그리고 다음 주말 베이 지역에서도 Maker 's Faire가 있습니다

Maker 's Faire에 가입하는 지역에 계시다면, Maker 's Faire에서 키트를 얻을 수 있습니다 Python 프로그래밍을 사용하여 Raspberry Pi를 사용하여 학습 당신이 필요로하는 것의 일부입니다 귀하의 응용 프로그램을 확장하기 위해 자신을 참여 시키려면, TensorFlow 기계 학습 모델 사용 AI의 힘을 응용 프로그램에 실제로 구현할 수 있습니다 그리고 그것은 AIY의 힘입니다 그리고 마침내, 요약에, 나는 행동 촉구를 말할 것이다

네가 할 수있는 일들 모두가 할 수있는 우리의 키트를 가져 와서 건물을 시작하십시오 많은 재미와 물론 많은 Google 서비스를 배우게됩니다 Google I / O에는 Google Cloud, Google에 세션이 있습니다 TensorFlow의 어시스턴트 그 지식과 기술을 배우는 데 참여하십시오 다양한 센서, 컨트롤을 얻을 수 있습니다

해당 장치의 GPIO 포트에 연결합니다 재미있는 응용 프로그램을 많이 만들 수 있습니다 AI 기능을 활용할 수 있습니다 마지막으로 온라인 커뮤니티에 가입하십시오 우리는 곧 글로벌 AIY 모델 교환을 발표 할 것입니다

그 위에 응용 프로그램을 넣으십시오 전 세계 개발자 커뮤니티와 지식을 공유하십시오 그래서 세바스찬과 두샨 in과 함께, 오늘 우리 세션에 참여해 주셔서 감사드립니다 오늘 당신의 여행을 시작하십시오 고맙습니다

Bringing AI and machine learning innovations to healthcare (Google I/O ’18)

[음악 재생] 릴리 펭 : 안녕 모두들 내 이름은 릴리 펭이야

나는 의사로서 훈련을하고 있으며 나는 Google 의학에 종사하고있다 잘, Google 인공 지능 건강 관리 팀 저는 제품 매니저입니다 그리고 오늘 우리는 몇 가지 프로젝트에 대해 이야기 할 것입니다 우리 그룹에서 우리가 해왔 던 그래서 처음에는, 당신이 많은 것을 얻을 것이라고 생각합니다

그래서 나는 이것을 너무 많이 지나치지 않을 것입니다 그러나 우리는 깊은 학습을 적용하기 때문에 의료 정보에, 나는 원하는 종류의 조금만 사용되는 몇 가지 용어를 정의하는 것 그러나 다소 불충분하게 정의됩니다 그래서 처음으로, 인공 지능 – 이것은 꽤 광범위한 용어이며 그 거대한 프로젝트를 포함합니다 비인간적 인 지능을 구축한다 기계 학습은 특별한 유형입니다 인공 지능에 대해서, 그것은 더 똑똑해질 수있는 기계를 가르치고 있습니다

그리고 깊은 학습은 특별한 유형입니다 너희들 기계 학습의 아마 꽤 많이 들었고 꽤 많이 들었습니다 우선 무엇보다 깊은 학습이란 무엇입니까? 그래서 인공 신경 네트워크의 현대 환생입니다 실제로 1960 년대에 발명되었습니다 그것은 조직 된 단순한 훈련 가능한 단위의 모음입니다 레이어에서

그리고 그들은 함께 작업하여 복잡한 작업을 해결하거나 모델링합니다 따라서 일반적으로 데이터 세트가 작고 계산이 제한적일 경우, 우리가 1980 년대와 90 년대에 가진 것입니다 일반적으로 다른 접근 방식이 효과적입니다 그러나 더 큰 데이터 세트 및 더 큰 모델 크기 더 많은 컴퓨팅 성능을 제공한다면, 우리는 신경 네트워크 훨씬 더 잘 작동합니다 실제로 두 가지 테이크 아웃이 있습니다

너희들이이 슬라이드에서 나가길 바란다 하나는 깊은 학습 열차 알고리즘입니다 충분한 데이터가 주어지면 매우 정확합니다 두 가지, 깊은 학습이 이것을 할 수 있습니다 기능 공학없이 그리고 그것은 명시 적으로 규칙을 쓰지 않고 의미합니다 그럼 그게 무슨 뜻이야? 글쎄, 전통적인 컴퓨터 비전에서, 우리는 규칙을 쓰는 데 많은 시간을 할애한다

특정 예측 작업을 수행하기 위해 기계가 따라야한다는 것을 의미합니다 길쌈 신경 네트워크 (convolutional neural networks) 우리는 실제로 기능에 거의 시간을 소비하지 않습니다 이러한 규칙을 작성하고 작성합니다 우리가 데이터 준비에 소비하는 대부분의 시간 수치 최적화 및 모델 아키텍처 그래서 나는이 질문을 꽤 많이 받는다

그리고 문제는 얼마나 많은 데이터가 충분한 데이터인지입니다 깊은 신경 네트워크? 일반적으로 더 많은 것이 좋습니다 그러나 특정 시점을 넘어선 수익이 감소하고 있습니다 일반적인 경험 법칙은 클래스 당 약 5,000 개의 긍정적 인 것을 좋아합니다 그러나 중요한 것은 좋은 관련 데이터입니다

쓰레기통에, 쓰레기통 이 모델은 예측하기 위해 무엇을 요구 하는지를 매우 잘 예측합니다 그래서 당신이 기계 학습을 어디에서 생각하는지, 특히 깊은 학습은 가장 큰 영향을 미칠 수 있습니다 실제로 장소에 있습니다 살펴볼 많은 데이터

우리 이사 중 한 명인 Greg Corrado가 최선을 다합니다 깊은 학습은 당신이 해낸 일에 정말 좋습니다 시간, 그리고 10,001 번째 시간에, 당신은 단지 그것의 아플 뿐이에요 더 이상하고 싶지 않아 그래서 이것은 검진에서 건강 관리에 정말 좋습니다

많은 환자를 볼 수있는 응용 프로그램 잠재적으로 정상입니다 전문 기술이 제한되어있는 곳에서도 좋습니다 오른쪽에 그래프가 나타납니다 세계 각국의 방사선과 의사 부족의 부족 그리고 이것은 다른 의학 전문 분야에도 해당됩니다

그러나 방사선과 의사가 여기 있습니다 그리고 우리는 근본적으로 의료 전문 지식의 세계적 부족을 봅니다 그래서 심사 신청 중 하나 우리 그룹이 당뇨병 성 망막증을 앓고 있습니다 더 쉽기 때문에 우리는 이것을 DR이라 부릅니다 당뇨병 성 망막증보다

그리고 예방 가능한 실명의 가장 빠른 성장 원인입니다 당뇨병 환자는 모두 4 억 5 천만 명에 달합니다 1 년에 한 번 상영됩니다 이것은 뒤의 사진을 찍음으로써 이루어진다 특별한 카메라로 눈의 모습을 볼 수 있습니다

그리고 그림은 그 것처럼 조금 생겼습니다 의사가 이런 이미지를 얻을 때 의사가하는 일 질병없이 1에서 5 단계로 등급을 매기 는가, 건강하고, 질병을 번식시키고, 그것은 마지막 단계입니다 그리고 그들이 등급을 매길 때, 때로는 매우 미묘하게 보입니다 결과, 미세 동맥류라고하는 작은 것들 그것은 눈의 혈관에 outpouchings입니다 그리고 그것은 당뇨병이 얼마나 안 좋은지를 나타냅니다

당신의 비전에 영향을 미치고 있습니다 그래서 불행히도 세계의 많은 지역에서, 이 일을하기에 안과 의사가 충분하지 않습니다 그래서 인도에있는 한 파트너와 함께, 또는 실제로 인도에있는 우리의 파트너 몇, 전국에 127,000 명의 안과 의사가 부족합니다 결과적으로 환자의 약 45 % 질병이 감지되기 ​​전에 시력 손실의 일종을 겪는다 네가 회상 한대로이 질병이 완전히 예방할 수있었습니다

다시 한번 이것은 일어나서는 안되는 것입니다 그래서 우리가하기로 결심 한 것은 우리가 파트너가 된 것입니다 인도에 몇 군데 병원을두고, 미국의 선별 서비스 제공 업체입니다 그리고 우리는이 첫 번째 시도에 대해 약 130,000 개의 이미지를 얻었습니다 우리는 54 명의 안과 의사를 고용하고 라벨링 도구를 만들었습니다

그리고 54 명의 안과 전문의는 실제로 이 스케일에서이 이미지의 등급을 매겼는데, DR에서 증식으로 흥미로운 점은 실제로 의사가 이미지를 호출하는 방법에 약간의 변동성이 있습니다 그래서 우리는 실제로 약 880,000 건의 진단을 받았습니다 이 레이블이 지정된 데이터 세트를 사용하여 알려진 콘볼 루션 신경망 이것은 시작이라고합니다

나는 너희들 중 많은 사람들이 그것에 익숙하다고 생각한다 일반적으로 사진 앱을 위해 고양이와 개를 분류하는 데 사용됩니다 또는 다른 검색 애플 리케이션을 위해 그리고 우리는 그저 안저 영상을 재사용했습니다 그래서 우리가 배운 다른 것 우리가이 일을하는 동안 그게 정말 유용했던 동안 이 5 점 진단, 그것은 또한 믿을 수 없을만큼 의사에게 유용하다

이미지 품질과 같은 하우스 키핑 예측에 대한 피드백, 이것이 왼쪽 눈인지 오른쪽 눈인지, 또는 이것이 망막의 어느 부분인지 알 수 있습니다 그래서 우리는 그것을 네트워크에도 추가했습니다 그럼 얼마나 잘하는거야? 이것이 우리 모델의 첫 번째 버전입니다 우리가 2016 년 의학 저널에 발표 한 내용은 제가 믿습니다 여기 왼쪽에는 차트가 있습니다

총계에있는 모형의 성과의 약 10,000 개 이상의 이미지 민감도는 y 축에 있고, 1 마이너스 특이성 x 축에있다 감도는 시간의 백분율입니다 환자가 질병에 걸렸다면 그 모델이 그 질병을 부르고 있었을 때, 맞았습니다 그리고 특이성은 비율입니다

모델에 질병이없는 환자들 또는 의사가 옳았다 그리고 당신은 뭔가를 원한다는 것을 알 수 있습니다 높은 민감도와 높은 특이성을 지니고 있습니다 그리고 위아래로 – 또는 위로 그리고 왼쪽으로 좋다 그리고 차트에서 여기를 볼 수 있습니다

작은 점들이 그 의사들이라고 동일한 세트를 채점하고있었습니다 그래서 우리는 의사와 매우 가까워졌습니다 그리고 이들은 보드 인증을받은 미국의 의사들입니다 그리고 이들은 안과 의사, 일반 안과 의사들입니다 훈련으로

사실 F 점수를 보면 감도와 특이성의 결합 된 척도이며, 우리는 중앙 안과 전문의보다 조금 나아졌습니다 이 특별한 연구에서 그래서 그 이후로 우리는 모델을 향상 시켰습니다 그래서 작년에 약 2016 년 12 월 우리는 일종의 동위에 있었다 일반인들과

그리고 올해는 – 이것은 우리가 발행 한 새로운 논문입니다 우리는 실제로 망막 전문가를 사용했습니다 이미지를 채점하기 위해 그래서 그들은 전문가입니다 우리는 또한 그들이 동의하지 않을 때 논쟁하도록했습니다

진단이 뭔지에 대해서 그리고 우리는 모델을 언제 사용 하는지를 볼 수 있습니다 그 사실을 근거로 모델은 매우 잘 예측했습니다 게다가 올해 우리는 일종의 동위에 있습니다

망막 전문가와 그리고이 가중 카파는 단지 5 수준의 합의 그리고 본질적으로 우리는 안과 의사와 망막 사이의 일종 사실 전문가들 사이에 망막 전문가 우리가 작업 해 왔던 또 다른 일 모델을 개선하는 것을 넘어서 실제로는 네트워크를 설명하려고 애쓰다 그것이 어떻게 예측을하고 있는지 다시 한번, 연극이나 연극을 가져 가라

소비자 세계의 플레이 북에서, 우리는 show me where라는 기술을 사용하기 시작했습니다 그리고 이것은 이미지를 사용하는 곳입니다 실제로 열 화상지도를 생성합니다 관련 픽셀은이 특정 예측을위한 것입니다 그래서 여기 포메라니스트의 그림을 볼 수 있습니다

그리고 히트 맵은 거기에 당신을 보여줍니다 포메 라니아 사람의 얼굴에있는 무언가이다 그것은 Pomeranian-y를 보게합니다 그리고 여기 오른쪽에는 아프간 인의 사냥개가 있습니다 그리고 네트워크는 아프간 인 사냥개를 강조했다

그래서 이와 비슷한 기술을 사용하여, 우리는이를 안저 이미지에 적용했다 우리가 말했지, 어디 있는지 보여줘 이것은 가벼운 질병의 경우입니다 그리고 나는 가벼운 질병이라고 말할 수 있습니다 왜냐하면 – 잘, 그것은 나에게 완전하게 정상적으로 보인다

나는 거기에 어떤 질병이 있다고 말할 수 없다 하지만 고도로 숙련 된 의사라면 미세 동맥류 라 불리는 작은 것을 골라 낼 수있다 녹색 지점이있는 곳 다음은 중등도의 질병 사진입니다 그리고 이것은 당신이 볼 수 있기 때문에 조금 더 나쁩니다

여기 끝에 약간의 출혈 그리고 실제로 나는 신호 할 수 있는지, 하지만 거기에 피가 나옵니다 그리고 열지도 – 히트 맵이 있습니다 출혈을 일으킨다는 것을 알 수 있습니다 그러나이 이미지에는 두 가지 유물이 있습니다

그래서 작은 얼룩처럼 먼지가 있습니다 그리고이 작은 반사가 있습니다 이미지의 중간에 그리고 당신은 그 모델이 근본적으로 그것을 무시합니다 그럼 다음은 뭐니? 우리는 모델을 훈련 시켰습니다

우리는 다소 설명 할 수 있음을 보여주었습니다 우리는 그것이 올바른 일을한다고 생각합니다 무엇 향후 계획? 음, 우리는 실제로 의료 시스템에 이것을 배치해야합니다 우리는 의료 공급자와 제휴하고 있습니다 그리고 회사는이를 환자에게 제공해야합니다

실제로 제게 메가 박사님, 누가 저를 대담하게 말할 것입니까? 이 노력에 대해 좀 더 자세히 설명 할 것입니다 그곳에 그래서 심사 신청서를 제출했습니다 그리고 여기 진단의 응용이 있습니다 우리가 작업하고있는 그래서이 특별한 예에서 우리는 질병에 대해 이야기하고 있습니다

우리는 유방암에 대해 이야기하고 있습니다 그러나 우리는 유방암의 전이에 대해 이야기하고 있습니다 근처 림프절로 따라서 환자가 유방암 진단을 받았을 때 원발성 유방암이 제거되면, 외과의 사는 밖으로 약간 시간을 보낸다 우리가 림프절이라고 부르는 것을 조사 할 수 있도록 유방암이 전이되었는지 아닌지보기 그 노드들에게 그리고 그것은 환자를 어떻게 대하는가에 영향을 미칩니다

이 림프절을 읽는 것은 쉬운 일이 아닙니다 그리고 실제로 그들이 돌아올 때의 생체 검사의 약 24 % 그들을보기 위해, 24 %는 마디 상태의 변화를 가지고 있었다 이는 긍정적 인 경우 부정적인 것으로 읽음을 의미합니다 그리고 그것은 음성적이었고, 긍정적이었습니다 그래서 그것은 정말로 큰 문제입니다

4 분의 1에요 흥미로운 점은 다른 연구 결과에 따르면 무한한 시간을 가진 병리학 자, 실제로 데이터에 압도 당하지 않았다 매우 민감하기 때문에 94 %의 감수성 종양 환자에게 시간 제약을 가하면, 그들의 감수성 – 또는 미안, 공급자에, 병리학 자에게는 감도가 떨어집니다 그리고 사람들은 내려다보기 시작할 것입니다

거의 전이가 없을 수도 있습니다 그래서이 그림에 바로 거기에 작은 전이가 있습니다 그리고 그것은 보통 놓친이 작은 것들입니다 많은 정보가 주어지면 놀랍지도 않습니다 각 슬라이드에 있습니다

따라서 이러한 슬라이드 중 하나가 디지털화 된 경우, 약 10 기가 픽셀입니다 그리고 그것은 말 그대로 건초 더미에있는 바늘입니다 흥미로운 점은 병리학 자들이 실제로 그들이 자신의 모든 시간을 보면서 암의 73 %를 찾는다 슬라이드마다 오진 (false positive)이 발생합니다 그래서 우리는이 작업을 도울 수있는 모델을 교육했습니다

실제로 암 병변의 약 95 %를 찾습니다 슬라이드 당 8 개의 가양 성이 있습니다 그래서 이상적인 시스템은 분명히 하나입니다 모델을 사용하여 매우 민감하지만 매우 구체적입니다 병리학자를 실제로 훑어 보는 것에 의존하는 거짓 긍정 (false positive)과 오탐 (false positive)이라고합니다 그래서 이것은 매우 유망하며 우리는 지금 클리닉에서 유효성 검사를하고 있습니다

독자 연구의 관점에서, 이것이 실제로 어떻게 의사와 상호 작용하는 것은 정말로 중요합니다 그리고 분명히 다른 조직에 응용할 수 있습니다 나는 림프절에 관해 이야기했지만 초기 연구가있었습니다 실제로 이것은 전립선 암에서 효과가 있음을 보여줍니다 글리슨 그레이딩에 대해서도 마찬가지입니다 그래서 이전 예제에서 우리는 말했습니다

얼마나 깊이있는 학습이 매우 정확합니다 그리고 그들은 의사가 이미 만들었던 전화를하는 경향이 있습니다 그러나 의사가 현재하지 않는 것들을 예측하는 것은 어떨까요? 이미징에서 할거야? 그래서 당신이 이야기의 처음부터 기억하고 있듯이, 깊은 학습에 대한 위대한 것들 중 하나 매우 정확한 알고리즘을 훈련시킬 수 있다는 것입니다 명시 적으로 규칙을 작성하지 않아도됩니다 그래서 우리는 완전히 새로운 발견을 할 수 있습니다

그래서 왼쪽 그림은 종이에서 나온 그림입니다 우리가 최근에 출판 한 다양성을 예측하는 훈련 된 심층 학습 모델 의 심혈관 위험 요인 여기에는 나이, 자기보고 섹스, 흡연 상태, 혈압, 일반적으로 의사들 환자의 심장 혈관 위험을 평가하기 위해 지금 고려해보십시오 적절한 치료 권고를하십시오 그래서 우리는 우리가 이러한 요소 중 많은 것을 예측하고, 매우 정확하게, 실제로 5 년 위험을 직접 예측할 수 있습니다

심장 사건의 그래서이 연구는 아주 일찍, 정말 폐활 적이었고, 이 예측을위한 AUC는 07이다 이 숫자가 의미하는 것은 두 장의 그림이 주어지면 심혈관 사건이없는 환자의 사진 그리고 한 환자의 사진은 약 70 % 그 시간의 대부분의 의사들은 약 50 %의 시간을 보냈고, 그것은 무작위 적이기 때문에 – 마치 혼자 망막 이미지를 기반으로하기가 어렵습니다 그렇다면 왜 이것이 흥미로운가? 일반적으로 의사가 시도 할 때 심혈관 질환 위험을 평가하기 위해, 관련된 바늘이 있습니다

그래서 나는 누군가가 혈중 콜레스테롤을 섭취했는지 모른다 상영 전에 밤에 금식하고 혈액 샘플을 가져가 그런 다음 위험을 평가합니다 다시 한번, 저는 이것이 정말로 초기에 있다는 것을 강조하고 싶습니다

그러나 이러한 결과는 아이디어를 뒷받침합니다 우리가 뭔가를 사용할 수 있을지도 몰라 우리가 할 수 없었던 새로운 예측을하기 위해 이미지처럼 전에 만들어라 그리고 이것은 정렬로 수행 될 수 있습니다 비 침습적 인 방식으로

그래서 몇 가지 예를 들어 보았습니다 세 가지 예가 있습니다 얼마나 깊은 학습이 실제로 두 가지 가용성을 증가시킬 수 있는지 건강 관리의 정확성 그리고 내가 원하는 종류의 것들 중 하나 이것이 여기에있는 이유가 여기에 있음을 인정하십시오 TensorFlow는 점점 더 흥미 진진합니다

오픈 소스입니다 일반적인 기계 학습에서 이런 종류의 개방형 표준 어디서나 적용되고 있습니다 그래서 저는 Google에서 한 일의 예를 들었습니다 커뮤니티 전체에서 수행되는 많은 작업이 있습니다 매우 유사한 다른 의료 센터에서

그래서 우리는 무엇에 대해 정말 흥분하고 있습니다 이 기술은 건강 관리 분야에 도움이 될 수 있습니다 그리고 그걸로 Jess Mega를 소개하고 싶습니다 저와 달리, 그녀는 진짜 의사입니다 그리고 그녀는 Verily의 최고 의료 책임자입니다

제시카 메가 : 여기에와 주셔서 감사합니다 그리고 우리를 걷어차 기 위해 릴리에게 감사드립니다 나는 AI와 건강 관리에 대한 흥분을 생각한다 더 커질 수는 없다 들으 셨던 것처럼, 제 이름은 메스 제스입니다

나는 심장 전문의이고, 너무 기쁘다 알파벳 가족의 일부입니다 Verily는 Google과 Google X에서 성장했습니다 그리고 우리는 전적으로 의료 및 생명 과학에 중점을두고 있습니다 우리의 사명은 세계의 건강 정보를 취하는 것입니다

환자가보다 건강한 삶을 누릴 수 있도록 유용하게 만듭니다 그리고 오늘 제가 이야기 할 예제는 당뇨병에 초점을 맞추고 있습니다 릴리가 시작한 대화에 정말로 도움이됩니다 하지만 일시 중지하는 것이 매우 중요하다고 생각합니다 건강 데이터를 광범위하게 생각해보십시오

현재 청중에있는 모든 개인 약 몇 기가 바이트의 건강 데이터가 있습니다 그러나 수년 동안 건강에 관해 생각한다면 유전체학에 관해서 생각해보고, 분자 기술, 이미징, 센서 데이터, 환자보고 데이터, 전자 건강 기록 우리는 엄청난 액수에 대해 이야기하고 있습니다 데이터, 기가 바이트의 데이터 그리고 Verily와 Alphabet에서 우리는 우리가 환자들을 도울 수 있도록이 일에 앞장설 것입니다 우리가 초기에 우리의 노력 중 일부를 집중하고있는 이유 당뇨병에 이것은 긴급한 건강 문제입니다

약 10 명 중 1 명이 당뇨병을 앓고 있습니다 당뇨병에 걸릴 때 시체에서 설탕 포도당을 어떻게 다룰 지 그리고 당신이 prediabetes에 대해서 생각한다면, 누군가 당뇨병에 걸리기 전에 조건, 3 명 중 1 명입니다 오늘 청중의 전체 중앙 섹션이 될 것입니다 이제 몸이 처리 할 때 어떤 일이 발생합니까? 포도당은 다른 방법으로, 당신은 다운 스트림 효과를 가질 수 있습니다

릴리가 당뇨병 성 망막증에 대해 이야기하는 것을 들었습니까? 사람들은 심장, 신장, 말초 신경 병증 이것이 우리가 앞서 나아갈 필요가있는 질병의 유형입니다 그러나 우리는 우리가 다루려고하는 두 가지 주요 쟁점을 가지고 있습니다 첫 번째는 정보 격차입니다 따라서 당뇨병 환자 중 가장 견고한 환자들조차도 – 우리 할아버지는이 중 하나 였어

하루에 네 번씩 혈당을 확인합니다 오늘이 누구인지 모르겠다 어떤 간식을 먹을 수 있습니다 나는 캐러멜 팝콘을 실제로 가지고 있었다 누구든지 그 중 하나가 있었나요? 그래, 대단하다

우리의 생물학과 우리의 포도당은 위아래로 가고 있습니다 그래서 제가 그 순간에 포도당을 검사하지 않으면, 우리는 그 데이터를 포착하지 못했을 것입니다 그래서 우리는 생물학이 항상 일어나고 있다는 것을 압니다 심장병 전문의로 병원에있는 환자를 볼 때, 나는 누군가의 심장 박동수, 혈압, 모든 것을 볼 수있다 이 생체 신호 중 실시간으로 그리고 사람들은 집으로 돌아가지만 생물학은 여전히 ​​일어나고 있습니다

따라서 정보 격차가 있습니다 특히 당뇨병 환자와의 차이 두 번째 쟁점은 의사 결정 갭입니다 1 년에 1 회, 1 년에 2 회, 그러나 매일 건강에 대한 결정이 내려지고 있습니다 그들은 매주, 매일, 매시간 일어나고 있습니다

그리고 우리는 어떻게이 격차를 좁히기로 결정합니까? 진실로 우리는 세 가지 핵심 사명에 집중하고 있습니다 그리고 이것은 거의 모든 프로젝트에 적용될 수 있습니다 우리는 교대하는 법을 생각하고 있습니다 에피소드 및 반응 치료에서 훨씬 예방적인 치료에 이르기까지 다양합니다 그리고 그 일을하고 요점을 이해하기 위해 우리는 실제로 AI의 힘을 사용할 수 있습니다

우리는 세 가지를해야합니다 올바른 데이터를 수집하는 것에 대해 생각해야합니다 그리고 오늘 저는 지속적인 포도당 모니터링에 대해 이야기 할 것입니다 그런 다음이 데이터를 어떻게 구성하여 형식으로되어 있는지 확인하십시오 우리는 환자의 잠금을 해제하고 활성화하여 진정으로 도움을 줄 수 있습니까? 그래서 우리가 당뇨병 분야에서 이것을 행하는 지 여부 오늘 또는 우리의 수술 로봇에 대해 듣게 될 것입니다

이것은 일반적인 전제입니다 생각할 첫 번째 사항은 데이터 수집입니다 그리고 릴리가 쓰레기를 말하면서, 쓰레기가 나옵니다 이해하지 못하면 통찰력을 찾을 수 없습니다 우리가보고있는 것

그리고 절대적으로 혁명적 인 한 가지 매우 작은 생체 적합성에 대해 생각하고있다 전자 제품 따라서 우리는 차세대 감지 기술을 연구하고 있습니다 그리고 여기에서 데모를 볼 수 있습니다 이것이 예를 들어, 매우 작은 연속 포도당 모니터가있는 곳에서 이러한 도구 중 일부를 만들기 위해 협력하고, 이것은보다 매끄러운 통합으로 이어질 것입니다

다시 한번, 당신은 단지 포도당 값이 얼마되지 않습니다 그러나 우리는 당신 몸이 어떻게 취급하고 있는지 이해합니다 설탕, 제 2 형 당뇨병 환자, 보다 지속적인 방식으로 그것은 또한 우리가 인구 수준에서 일어나는 일 그러나 개인적인 차원에서 일어날 수있는 일 특정 음식을 섭취 할 때 그리고 마지막으로 장치 비용을 줄이려고 노력합니다 그래서 우리는 건강을 정말로 민주화 할 수 있습니다

다음 목표는이 모든 데이터를 어떻게 구성 할 것인가입니다 그리고 저는 환자와 의사로서 말할 수 있습니다 사람들이 말할 수있는 것은 데이터가 놀랍고, 쓰나미로 데이터를 압도하지 마십시오 당신은 그것을 조직해야합니다 그래서 우리는 사노피와 파트너십을 맺었습니다

Onduo라는 회사에서 그리고 그 생각은 환자를 그들의 보살핌과 도움의 중심에 당뇨 관리를 단순화합니다 이것은 정말 누군가의 마음에 도착합니다 누가 더 행복하고 건강해질 것인가 그렇다면 실제로 무엇을 의미합니까? 우리가하려는 일은 사람들에게 힘을 실어주는 것입니다 그들의 포도당 제어와 함께

그래서 우리는 미국 당뇨병 협회 권장 포도당 범위를 살펴보십시오 그러면 사람들이 당신에게 보여주는 그래프를 얻습니다 하루의 모습과 시간의 비율 너는 범위 안에있다 다시, 환자 또는 사용자에게 제공 그 데이터는 그들이 결정의 중심이 될 수 있도록 – 마지막으로 Google 피트니스를 통해 단계를 추적합니다 다음 목표는 이해하려고 노력하는 것입니다

포도당이 당신의 활동과식이 요법과 어떻게 조화를 이루고 있는지 여기에는 프롬프트를 표시하는 앱이 있습니다 음식 사진 그리고 이미지 인식을 사용하고 Google의 TensorFlow를 사용하여, 우리는 음식을 식별 할 수 있습니다 그리고 이것이 진정한 개인적 통찰력이있는 곳입니다

진짜가되기 시작하십시오 왜냐하면 당신이 특정 식사를 먹으면, 몸이 어떻게 끝나는 지 이해하는 것이 도움이됩니다 그것과 관련있다 그리고 흥미로운 예비 자료가 있습니다 미생물이 변할 수 있음을 시사한다

내가 바나나에 반응 한 방식, 예를 들면, 그렇지 않으면 응답 할 수 있습니다 그리고 그것은 모두가 중요하기 때문에 중요합니다 우리가 만드는 일반적인 권고 사항이 갑자기 의사로서 누군가 나를 클리닉에서 보러 오면 2 형 당뇨병이 있습니다

여기 당신이해야 할 일들이 있습니다 당신은 당신의 다이어트, 운동, 구두 약을 복용하십시오 인슐린, 운동도 받아야합니다 당신은 당신의 발 의사, 당신의 눈을보아야 만합니다 의사, 주치의, 및 endocrinologist

그리고 그것은 통합 할 것이 많습니다 그래서 우리가하려고하는 것은 쌍입니다 이 모든 정보는 간병과 함께 간단한 방법으로 제공됩니다 이 여행을 돕는 사람입니다 이 정보가 떠오르면 내가 여기서 너에게 보여준 것의 가운데를 들여다 보면 의료지도와 그 사람이 보는 것, 당신은 여러 다른 라인을 볼 수 있습니다

드릴 다운하고 살펴보기를 바랍니다 이것은 데이터 간의 차이점을 보여줍니다 에피소드 식 포도당 예제에서 볼 수 있습니다 또는 지속적인 포도당 모니터로보고있는 것 이 새로운 감지로 가능합니다 그리고 우리가이 연속 포도당을 뚫어 말하며 모니터하고 우리는 일의 클러스터를 봅니다

이것은 하나의 예입니다 우리는 패턴을보기 시작할 것입니다 릴리가 언급했듯이 이것은 유형의 것이 아닙니다 개별 환자, 간병인 또는 의사가 파고 있지만, 여기가 당신은 학습 모델의 힘을 풀기 시작합니다 우리가 볼 수있는 것은 클러스터입니다

다른 아침의 우리는 긍정적 인 연관성을 만들거야 모두가 여기에서 믿을 수 없을만큼 건강하게 먹는다고 Google I / O에서 빨간색 아침의 클러스터가 될 수도 있습니다 하지만 우리는 일상 생활로 돌아가서 스트레스를받습니다 우리는 다른 종류의 음식을 먹고 있습니다

그러나 대신에, 일반적인 조언을하는 대신에, 우리는 다른 모델을 사용하여 지적 할 수 있습니다 뭔가 진행되고있는 것처럼 보입니다 예를 들어 환자 한 명과 수요일 즈음에 군집이 보였다 그래서 수요일에 무슨 일이 일어나고있는거야? 그 사람이 가고 멈추고 있는가? 특정 위치 또는 어쩌면 거기에 있습니다 그날 많은 스트레스

그러나 다시 한번, 일반적인주의를 기울이지 않고, 가장 포괄적 인 방법으로 치료를 시작할 수 있습니다 실용 가능한 예 다시 한번 우리가 말하는 것에 대해 생각해보십시오 데이터 수집, 구성 및 활성화 매우 관련성이 높습니다 이것이 우리가 당뇨병 관리에 관해 생각하는 방식입니다

이것이 바로 AI가 작동하는 방식입니다 우리는 오늘 아침 다른 토론에서 들었습니다 우리는 문제에 대해 생각해 봐야 해 우리는 이러한 도구를 사용하여 실제로 만들 것입니다 차이

그래서 우리가 생각할 수있는 다른 방법은 무엇입니까? 정보 활성화에 대해서? 그리고 릴리에게서 당뇨병 성 망막증 실명의 주요 원인 중 하나입니다 우리가 뛰어난 포도당 관리를하더라도, 말기 장기 손상이 시작될 수도 있습니다 그리고 나는 그 상승 된 포도당을 언급했다 레벨이 결국 안저 및 망막에 영향을 줄 수 있습니다 이제 당뇨병 환자들 심사를 받아야합니다

하지만 이전에 내가 너에게 준 이야기에서 우리가 환자에게 묻는 것의 세탁 목록 당뇨병에 걸린 사람 그래서이 공동 작업으로 우리가하려는 일은 구글과 함께, 어떻게 우리가 실제로 제품을 앞서 생각하고 생각하다 우리가 실현할 수 있도록 엔드 – 투 – 엔드 솔루션에 대해 오늘날 존재하는 어려움을 제거하십시오 이 문제는 상영에 관한 한 그 중 하나이기 때문에 내게 필요한 옵션이며 다른 하나는 검안의와 안과 의사에게 접근 할 수 있습니다

그리고 이것은 미국의 문제입니다 개발 도상국 에서뿐만 아니라 그래서 이것은 단지 문제가 아니라 지역적 문제입니다 이것은 우리가 매우 세계적으로 생각할 때입니다 우리는 해결책에 대해 생각합니다 우리는이 데이터를 일찍이 생각해 보았습니다

우리는 알고리즘을 사용할 수 있고 두 감도 모두를 높일 수 있습니다 당뇨 망막 병증의 진단과 특이도 황반부 종 그리고 이것은 "JAMA"에 게시 된 데이터입니다 릴리가 잘 설명했듯이 그렇다면 우리는 어떻게 생각할 것인가? 이 제품을 만드는 방법에 대해? 알파벳 같은 장소에서 일하는 것의 아름다움 오늘 당신과 같은 파트너와 함께 일하는 것이 우리 모두입니다

생각할 수있는 것, 우리가 해결해야 할 문제가 무엇인지, 알고리즘을 작성하십시오 그러나 우리는 그 때 뒤로 물러 설 필요가있다 보건 분야에서 활동한다는 의미 그리고 생명 과학의 공간에서? 우리는 이미지 획득, 알고리즘, 그 정보를 전달하는 것 의사뿐 아니라 환자에게도 도움이됩니다 우리가하는 일은이 정보를 취하는 것입니다 현재 일부 파트너와 협력하고 있습니다

현재 유망한 파일럿이 있습니다 인도에서와 마찬가지로, 우리는 듣고 싶습니다 이른 피드백 그리고 두 가지 정보가 있습니다 나는 너와 나누고 싶었다

하나는이 초기 관측을보고, 우리는 AI로 더 높은 정확도를보고 있습니다 더 큰 매뉴얼보다 의사로서 중요한 것은 – 방에 다른 의사가 있는지 나는 모른다 하지만 내가 항상 사람들에게 말하는 부분은 건강 관리 제공자를위한 공간이 될 것입니다 이 도구들이하는 일은 단지 우리가 일하는 것을 돕는 것입니다

그래서 때로는 사람들이 나에게 묻습니다 기술과 인공 지능입니다 의사를 대신하거나 의료 제도를 대체 할 것인가? 그리고 제가 생각하기에 그것은 단지 작품을 증대시키는 것입니다 우리는하다 청진기에 대해 생각한다면 – 그래서 저는 심장 전문의이고 청진기입니다

약 200 년 전에 발명되었습니다 우리가하는 일을 대체하지는 않습니다 그것은 단순히 우리가하는 일을 보강합니다 그리고 나는 우리가 계속하는 것과 비슷한 주제를 보게 될 것이라고 생각합니다 더 많은 것을 돌보는 방법에 대해 생각해보십시오

환자에게 효과적인 방법 그래서 여기서 가장 먼저 AI가 더 잘 수행되고 있다는 것입니다 수동 그레이더보다 그리고 두 번째로 생각하는 것입니다 그 환자 기초에 대해서

우리는 어떻게 진료를 진정으로 민주화합니까? 그리고 조종사에게서 다른 격려하는 조각 우리가 시작할 수있는 아이디어였다 알고리즘으로 치료받는 환자의 기반을 증가시킨다 이제 밝혀 졌을 때, 나는 좋아할 것입니다 건강하게 모든 것을하는 것이 정말 쉽다는 것을 말하고 있습니다 간호 및 생명 과학

그러나 그것이 나왔던 것에 따라, 그것은 거대한 마을을 필요로한다 이런 종류의 일을하는 것 그럼 다음은 뭐니? 임상 입양의 경로는 무엇입니까? 그리고 이것은 이것이 대단히 흥미로 웠습니다 많은 재능있는 기술자들과 일하는 의사가 되라 및 엔지니어 우리는 이제 다른 임상 사이트와 파트너가되어야합니다

나는 여기서 언급했다 우리는 또한 FDA, 유럽 ​​및 그 밖의 규제 기관들도 마찬가지입니다 우리가하기로 결정한 진실로 한 가지 FDA 사전 인증이라고 불리는 것에 속하는 것입니다 프로그램 우리는 새로운 기술과 새로운 알고리즘 의료 보험에 가입하는 것이 중요하지만 지금은 그 방법을 알아 내야합니다

둘 다 안전하고 효과적입니다 그리고 저는 Alphabet에서 우리를 자랑스럽게 생각합니다 앞서 나가고 파트너 관계를 유지하십시오 FDA와 같은 단체들과 주의해야 할 두 번째 사항 우리가 진실로 진실로 Google 및 Nikon 및 Optus와 같은 다른 파트너와 함께 이 모든 것들이 모여 든다 진료를 변형시키려는 시도

그러나 나는 이것이 올바르게하면, 당뇨병뿐만 아니라 실제로 큰 기회가 있습니다 건강 정보의 전 세계에서 그것에 대해 생각하는 것은 흥미 롭습니다 내 시간을 대부분 보살 피는 의사로서 병원에있는 환자의 보살핌에 더 많은 접근을 시작하십시오 병원 밖에서? 하지만 우리가 잘한다면 우리가 앞서 나가면이 격차를 좁힐 수 있습니다 더 예방적인 방법을 찾아 낼 수 있습니다

우리는 올바른 정보를 수집 할 수 있습니다 우리는 인프라를 구성하여이를 구성 할 수 있습니다 그리고 가장 중요한 것은 그것을 활성화하는 방법을 알아낼 것입니다 그러나 나는 모두가 여기에서 알고 싶어한다 이것은 우리가 홀로 할 수있는 일이 아닙니다

정말로 우리 모두를 필요로합니다 그리고 Verily, 우리는 Google에, 우리는 Alphabet 여러분 모두와 함께 할 수 있기를 기대합니다 그래서이 여행에서 우리를 도와주세요 이 대화 후에 릴리와 나는 여기있을 것이다 우리는 여러분 모두와 행복하게 대화 할 수 있습니다

I / O에서 시간을내어 주셔서 감사합니다 [음악 재생]

Keynote (Google I/O ’18)

좋은 아침입니다 구글 CEO 순다르 피차이 구글 개발자 연례 회의에 오신 여러분을 환영합니다 날씨가 좋네요 작년보다 좀 더 따뜻한 거 같아요 모두들 즐거운 시간 보내고 계신가요 이 자리에 와 주셔서 감사합니다 오늘 약 칠천명 정도가 와 주신 것 같은데요 여기 와 주신 분들 뿐만 아니라 전세계에서 라이브 스트리밍으로 보고 계신 분들도 있습니다 모든 분들에게 감사 드립니다 오늘 많은 얘기를 나눌 거예요 시작하기 전에 아주 중요한 사안을 먼저 해결하고 싶네요 작년 말 즈음에 제 눈길을 끈것이 있었는데 우리 주력 상품 중 하나에 중대한 버그가 있다는 것이었죠 뭐였냐면 버거 이모지에 있는 치즈의 순서가 잘못 된것이었습니다 버그를 고치느라 고생 좀 했어요 사람들이 치즈가 어디 있는지에 대해 그렇게 많이 신경 쓰는지 몰랐어요 그래서 수정했습니다 애초에 제가 채식주의자라는 게 좀 아이러니하네요 어째든 수정이 완료되었습니다 이번엔 치즈가 올바른 곳에 자리잡았기를 바랍니다 버거 이모지를 수정하다 보니 이 이모지도 거슬리더군요 왜 거품이 맥주 위에 있는지에 대해 직원들이 한 설명은 언급하고 싶지도 않네요 이제 물리법칙에 맞게 수정해두었습니다 다 잘 수정되었으니까 본론으로 들어가볼까요? 작년 개발자 회의 이후로 생긴 많은 발전들에 대해 이야기 해보죠 많은 부분에서 특별한 한 해였다는 것을 모두 동의하실 거라고 생각합니다 여러분도 느끼셨을 거라 믿습니다 우리는 지금 컴퓨팅에 있어서 중요한 변곡점에 서 있습니다 기술을 진보시키는 건 흥미진진한 일이죠 그에 따른 우리의 책임에 대해서도 많은 생각을 해 봤습니다 기술에 대한 기대는 어떤 세상에서 사느냐에 따라 혹은 어떤 기회가 주어졌느냐에 따라 굉장히 달라집니다 휴대폰 없이 성장한 저같은 사람은 분명히 기억하고 있습니다 기술에 대한 접근성이 우리의 삶을 어떻게 바꿀 수 있는지를요 우리는 세계 각지에서 일을 하면서 이를 목격할 수 있습니다 여러분은 스마트폰을 처음 접하는 사람을 보면서 알 수 있을 겁니다 그리고 우리가 보는 디지털 기술에 대한 큰 수요를 통해 느낄 수 있습니다 그게 바로 우리가 디지털 기술을 세계 각지로 보급하는데 집중하는 이유입니다 지금까지 우리는 2,500만명을 훈련시켰고 향후 5년 안에 그 숫자가 6,000만명 이상이 될 것으로 기대하고 있습니다 기술이 긍정적인 힘을 가진 것은 분명합니다 그러나 기술 혁신이 가져올 수 있는 결과에 대해 우리가 놀라기만 할 수는 없다는 것 역시 분명합니다 기술의 진보가 우리의 삶에서 수행할 역할에 대한 매우 실제적이고 중요한 질문이 있습니다 우리가 가야할 길에 대해 매우 조심스럽고 신중한 접근이 필요하다는 것을 잘 알고 있습니다 그 권리를 얻은 데 대한 깊은 책임감 역시 느끼고 있습니다 주요 과제들에 대한 우리의 신념이 바로 이것입니다 정보를 좀 더 사회에 유용하게, 접근성 있게 그리고 유익하게 만드는 것입니다 하나의 기업체로서 영원한 과제를 가진다는 것이 행운이라고 생각합니다 처음 시작했을 때만큼이나 오늘날과도 이어져 있는 느낌이거든요 우리의 과제에 접근함에 있어서 새로운 활력소와 함께 한다는 사실에 흥분됩니다 AI에서의 성장 덕분이죠 AI는 우리에게 새로운 길을 제시해 줬습니다 전세계 사용자들의 문제를 해결 하는데 있어서요 작년 개발자 회의에서 구글 AI를 발표했습니다 우리 팀이 열심히 노력한 결과였죠 AI의 편리함을 모두와 나누기 위해서 말입니다 저희는 전세계적으로 보급하고 싶기 때문에 세계 곳곳에 AI 센터를 만들었습니다 AI는 앞으로도 많은 분야에 영향을 주게 될 겁니다 오늘 그 예시를 몇 개 보여드리겠습니다 AI가 변형시킬 중요한 분야 중 하나가 건강 관리 분야입니다 작년에 당뇨병성 망막증과 관련한 작업을 발표했습니다 이것이 실명의 주요 원인입니다 구글은 의사의 더 빠른 진단 돕기 위해 딥 러닝 기술을 적용했습니다 그 때부터 계속 현장 시험을 해왔습니다 인도의 아라빈드 병원과 산카라 병원에서 이루어졌죠 현장 시험 결과는 매우 좋았습니다 전문의가 드문 지역에서 전문적인 진단을 내릴 수 있게 해 줬습니다 같은 망막 스캔을 봐도 사람이 찾아낼 수 없는 것들을 AI는 찾아낼 수 있다는 것을 알 수 있었습니다 같은 홍채 인식을 통해서 AI는 더 많은 정보들을 얻을 수 있었습니다 이를 통해 5년 내에 심장마비나 뇌졸중 같은 유해 심혈관 관련 질병의 발병을 예상할 수 있었습니다 제가 흥미롭게 생각한 점은 의사가 홍채 검사로 발견할 수 있는 것보다 머신 러닝을 통해 발견할 수 있는 것이 더 많다는 것입니다 이 기술은 심혈관계 질환을 수술 없이 발견하는 데 초석이 될 수 있습니다 현재도 진행중이며 최근 연구 결과를 발표했습니다 또한 협력사들과 함께 이를 현장에 적용시키려 작업하고 있습니다 AI가 도울 수 있는 또 다른 분야는 의사를 도와서 질병을 예측하는 것입니다 의사들은 다양하고 많은 어려움에 직면하고 있습니다 그런 의사들을 위해서 예고를 해 주는 거죠 24시간에서 48시간 이내에 환자가 매우 아프게 될 것 같다 이런 예고는 중대한 차이를 가져올 수 있습니다 그래서 머신 러닝 시스템으로 작업을 진행했습니다 협력 업체들과 함께 일했습니다 익명의 의료 기록들을 이용했습니다 그리고 각 환자별로 십만개가 넘는 정보를 분석하면 어떤 의사도 혼자서 분석할 수 없는 양이죠 AI가 양적으로 재입원의 가능성을 추측할 수 있다는 것을 알아 냈습니다 기존 방식보다 24시간에서 48시간 빠르게요 의사에게 행동할 시간을 좀 더 많이 줄 수 있습니다 이와 관련한 자료를 오늘 오후경에 게재할 예정입니다 우리와 함께 일할 병원이나 의료기관을 찾고 있습니다 AI가 도울 수 있는 다른 분야는 접근성 분야입니다 일상적인 사용 사례를 훨씬 쉽게 만들 수 있습니다 흔한 사용사례를 들어 볼게요 밤에 집에 오면 TV를 켜잖아요 종종 두 명 혹은 그 이상의 사람들이 서로에게 열정적으로 대화를 하는 화면을 보실 겁니다 잘 들리지 않는 부분을 들으려고 자동 생성 자막에 의존해서 무슨 말을 하는지 본다고 상상해보세요 아마 이런 장면을 보게 될 겁니다 보시다시피 알아 보기가 힘들죠 무슨 말을 하는 지 알기 어렵습니다 그래서 '루킹투리슨'이라 불리는 머신 러닝 기술이 있습니다 청각 신호만을 알아듣는 것이 아니라 시각 신호와 청각 신호를 결합하여 두 음성을 명확히 구분해 줍니다 어떻게 작동하는 지 보실까요? 유튜브 영상이라고 생각해보세요 그는 대니 에인지 수준은 아닙니다 그렇지만 콜란젤로보다는 낫죠 그러니까 그는 알아들을 수 있습니다 고의로 져도 괜찮다고 말한 겁니까? 지금 고의로 지는 것이 괜찮다고 말했을 뿐만 아니라 팬들한테 다 알려준 거죠? 이래도 괜찮다고 당신이 괜찮다고 했잖아요! 더 이상 말 할것도 없네요 우리는 말 할게 많이 있죠 중요한 일상적인 사용사례에 어떻게 기술을 접목하여 훨씬 더 편리하게 만들 수 있는지 보셨습니다 기술의 위대한 점은 끊임없이 발전한다는 것입니다 사실 머신 러닝은 200년 전 기술인 모스부호에도 적용시킬 수 있습니다 그리고 누군가의 삶의 질에 영향을 줄 수 있죠 한 번 보실까요? 안녕하세요 저는 타냐입니다 이것이 제 목소리 입니다 저는 머리 근처에 고정되어 있는 스위치로 점과 대시를 클릭해서 모스부호를 사용합니다 제가 어릴때에는 의사소통단어판을 사용했습니다 단어를 가리키기 위해 머리에 달린 막대를 사용해야만 했습니다 굉장히 재미있었습니다 진심으로요 모스부호가 처음 제 삶에 들어왔을 때 순수한 해방과 자유를 느낄 수 있었습니다 이따 봐요 사랑해요 아마 그게 제가 스카이 다이빙을 매우 좋아하는 이유인 것 같습니다 같은 해방감과 자유를 느끼거든요 스카이 다이빙을 통해서 제 하나뿐인 사랑인 켄을 만났습니다 그 역시 저와 사랑에 빠졌죠 정말 굉장히 힘든 일이었습니다 모스부호를 시험해 보기 위해 모스부호 장비를 찾는 건 힘들었어요 그래서 직접 만들어야만 했습니다 켄의 도움으로 제 목소리를 가질 수 있었습니다 또한 제 일상의 독립성도 향상 되었죠 하지만 대부분의 사람들 곁엔 켄과 같이 도와주는 사람이 없죠 그래서 G보드 팀과 협력하고 싶습니다 모스부호를 사용하는 자유를 만끽하길 희망하는 사람들을 도와주기 위해서요 G보드는 구글 키보드입니다 G보드에서 일하면서 알게 된 건 전세계적으로 그러니까 수천만명의 사람들이 살면서 본인들의 언어로 된 키보드를 가지지 못 했다는 사실입니다 구글은 타냐와 함께 모스부호를 지원하는 G보드를 만들었습니다 이것은 일종의 입력 양식입니다 모스부호를 입력하면 추측과 제안을 통해 문자가 출력됩니다 좋은 머신 러닝 예시라고 생각합니다 머신 러닝을 이용해서 실제로 누군가를 도와줄 수 있습니다 인공 지능이 없는 평범한 키보드는 할 수 없는 일이죠 이 여정을 계속할 수 있어서 매우 행복합니다 아주 많은 사람들이 이로 인해 혜택받을 거예요 그게 저를 무한히 전율시킵니다 고마워요 타냐 다른 사람들이 그들의 목소리를 찾게 당신의 목소리를 사용해줘서 매우 인상적인 이야기입니다 타냐와 켄을 이 자리에 모실 수 있어서 매우 영광입니다 타냐와 켄은 실제로 개발자로서 프로젝트에 기여했습니다 G보드에 포함된 실제 예측 제안의 힘을 모스부호의 문맥에서 사용 하기 위해 직접 구글 팀과 함께 개발에 참여했습니다 모스부호 기능이 포함된 G보드의 베타 버전이 오늘 오후경 이용가능 하다는 사실에 정말 기쁩니다 AI와 함께 제품을 재창조할 수 있어서 너무 좋습니다 G보드가 훌룡한 예시죠 매일매일 80억개가 넘는 자동 완성을 우리가 사용자에 제공하고 사용자는 그를 선택합니다 우리 주력 상품 중 하나를 AI를 이용해서 재설계한 또 다른 예시는 G메일입니다 G메일이 새롭고 신선한 외관으로 최근에 바뀌었잖아요? 최근에 이루어진 재설계입니다 여러분이 만족하시면서 쓰시고 계신다면 좋겠네요 G메일의 또 다른 기능을 보여드리겠습니다 스마트 작성이라고 부릅니다 이름에서 알 수 있듯이 머신 러닝을 사용해서 여러분이 타자를 칠 때 문구를 제안해주는 거죠 여러분이 할 일은 탭을 누르고 자동 완성을 하는 것 뿐입니다 화요일에 타코 먹기 자클린 안녕 못 본 지 좀 됐네 잘 지내고 있지? 조만간 만나서 타코 먹는 거 어때? 니가 나쵸랑 살사소스 가져오면 내가 과카몰리 만들게 이 메일에서 제목이 화요일에 타코 먹기라는 것을 인지하고 칩, 살사 소스, 과카몰리를 제안하고 있고요 주소같은 일반적인 것들도 자동으로 처리합니다 그래서 여러분이 걱정할 필요가 없죠 뭐라고 쓰고 싶은지에만 집중하면 됩니다 저는 이 기능을 즐겨 씁니다 이 기능으로 회사에 많은 메일을 보냈어요 회사가 뭐라고 생각할 지는 모르겠지만요 굉장히 좋았습니다 이번 달 내로 스마트 작성을 출시할 예정입니다 여러분 모두 좋아하시기를 바랍니다 다음 제품은 개발 단계부터 AI를 활용해서 만든 서비스인데요 바로 구글 포토입니다 아주 잘 작동되고 있고 점점 더 나아지고 있습니다 사진 중 하나를 클릭하는 것을 사진 뷰어 경험이라고 부릅니다 한 번에 한 장의 사진만을 보는 거죠 사진 서비스 규모에 대한 부연설명을 드리자면 매일매일 50억 장이 넘는 사진이 사용자들에 의해 클릭됩니다 매일매일이요 우리는 AI가 그런 상황에서 쓰이기를 바랐습니다 새로운 기능인 행동 제안입니다 사소한 행동들을 제안해주는 거죠 사용자가 행동하는 맥락 안에서요 예를 들어보겠습니다 결혼식에 다녀 왔다고 가정하죠 찍은 사진들을 살펴보겠죠 구글포토가 사진 안에 당신의 친구인 리사가 있다는 것을 인식하고 그러면 리사와 함께 찍은 사진 세 장을 공유하지 않겠느냐고 제안하는 거죠 한 번의 클릭으로 그 사진들을 리사에게 보낼 수 있습니다 모두들 자기 휴대폰으로 사진을 찍으려고 하잖아요 그걸 개선할 수 있는 거죠 예를 들어보겠습니다 같은 결혼식입니다 사진의 노출이 부족하면 우리 AI가 제안하는 거죠 지금 밝기를 조절하라구요 탭 한 번만 해주면 저절로 적절하게 밝기를 조절해 줍니다 혹은 여러분이 나중에 다시 보려고 서류를 찍어 두었다면 구글 포토가 이를 인식하고 서류를 PDF파일로 변환할 수 있습니다 그래서 나중에

나중에 쓰기 훨씬 편하게요 이런 간단한 일들을 즐겁게 만들고 싶었습니다 한편으로는 AI가 예상치 못한 상황을 선사할 수도 있습니다 예를 들면 아이를 귀엽게 찍은 사진을 가지고 있습니다 더 좋은 사진으로 만들어 줄 수 있어요 배경색을 없애고 아이의 색을 튀게 만들어 줍니다 아이를 한 층 더 귀엽게 해 주죠 아니면 아주 특별한 순간 있잖아요 흑백 사진으로 저장된 순간이요 어머니나 할머니의 사진일 수도 있죠 구글포토는 색을 입혀서 그 순간을 재창조 할 수 있습니다 좀 더 현실적이고 특별한 순간으로 만들어 줍니다 이 모든 구글 포토의 새 기능은 몇 달 이내에 출시될 예정입니다 이런 작업이 가능한 이유는 한동안 우리가 연산형 아키텍처의 규모에 많은 투자를 해왔기 때문입니다 작년에 텐서 프로세싱 유닛에 대해 말했던 것도 같은 이유입니다 특수 목적 머신 러닝 칩들입니다 오늘날 우리가 보고 있는 모든 제품의 개선을 만들어냈죠 이를 클라우드 소비자들에게도 이용 가능하게 만들었습니다 작년 이후로 우리는 열심히 일했습니다 그래서 오늘 차세대 TPU 30을 발표하게 되어 기쁩니다 이 칩들은 너무 빨라서 사상 처음으로 우리 데이터 센터에 액체 냉각 시스템을 도입해야만 했습니다 이 칩을 거대한 포드에 연결해서 각각의 포드들은 작년보다 8배 이상 빨라졌습니다 100 페타플롭스를 가뿐히 넘는 속도죠 덕분에 우리는 더 좋은 모델 더 큰 모델, 더 정확한 모델을 만들 수 있습니다 더 큰 문제들을 해결하는 데 도움을 주기도 하죠 AI를 다루면서 생긴 주요 문제 중 하나는 구글 어시스턴트입니다 우리가 바라는 완벽한 어시스턴트는 자연스럽게 대화할 수 있고 필요할 때 도움을 제공하며 현실의 일을 해결하게 해 주는 것입니다 이것을 더 좋아지게 만드는 작업을 하고 있습니다 어시스턴트가 자연스럽고 편안하게 대화할 수 있기를 원합니다 그러기 위해서는 구글 어시스턴트의 기초부터 시작해야겠죠 바로 음성입니다 오늘날 대부분의 사용자들이 어시스턴트와 상호작용하는 수단이죠 지금 음성은 '홀리'라고 불립니다 진짜 사람이죠 우리 스튜디오에서 몇 달간 머물렀습니다 녹음한 것들을 이어 붙여서 음성을 만들었습니다 하지만 18개월 전에 딥마인드 팀이 찾아낸 돌파구를 발표했죠 웨이브넷입니다 현재 체계와는 다르게 웨이브넷은 좀 더 자연스러운 음성을 만들기 위하여 실제 근본이 되는 로우 오디오를 만들어 냅니다 사람이 말하는 것과 흡사하게요 음의 높이, 속도 심지어는 말사이의 공백까지 따라해서 의미를 전달해 줍니다 그 모든 것을 가능하게 하고 싶었습니다 웨이브넷으로 열심히 작업했습니다 오늘부터 구글 어시스턴트에 6개의 새로운 음성이 추가됩니다 함께 인사 해 볼까요? 좋은 아침입니다 저는 당신의 구글 어시스턴트입니다 쇼어라인 앰피씨어터에 오신 것을 환영합니다 구글 개발자 회의를 즐기시기를 바랍니다 순다르씨에게 마이크를 넘깁니다 우리의 목표는 언젠가 전세계적으로 올바른 강세, 언어, 사투리를 구사하는 겁니다 웨이브넷이 이를 훨씬 쉽게 만들어 줍니다 이 기술을 활용하면서 어떤 놀라운 음성을 가진 분을 스튜디오로 모시면 좋을지 고민했습니다 한 번 보시죠 쿠스쿠스 북아프리카 세몰리나와 듀럼 밀을 빻아서 나온 작은 알갱이 형태의 음식 다정한 눈과 복슬거리는 꼬리에 내 하이쿠를 좋아하는 강아지를 원해 누구나 그렇지 않나? 생일을 맞은 당신의 생일을 축하합니다 생일 축하합니다 존 레전드 자랑하기 싫다고 얘기하겠지만 당신이 들은 것 중 최고의 어시스턴트가 될 겁니다 어디 사는지 말해 줄수 있나요? 각종 기기에서 저를 찾을 수 있습니다 휴대폰, 구글 홈 그리고 제게 행운이 따른다면 당신의 마음에서도요 네, 존 레전드의 음성이 어시스턴트로 나옵니다 존이 여러분이 물을 만한 모든 예상 질문에 답하면서 계속 스튜디오에 있지 않았던건 분명합니다 웨이브넷은 스튜디오에서 보내야 하는 시간을 줄이고 모델이 존의 다양한 목소리를 포착할 수 있게 했습니다 존의 음성은 올해 말에 특정 상황에 맞게 나올 예정입니다 여러분이 이런 대답을 들을 수 있게요 좋은 아침입니다 순다르씨 지금 마운틴 뷰의 하늘은 맑고 기온은 섭씨 18도입니다 오늘은 24도까지 올라갈 것으로 보이고 날씨는 화창할 예정입니다 오전 10시에는 구글 개발자 회의 기조 연설 일정이 있고 그리고 오후 1시에는 마가리타를 마실 예정입니다 좋은 하루 되십시오 오후 1시가 기다려지네요 존의 음성은 올해 하반기에 나올 예정입니다 AI와 함께 이런 진보를 이룰 수 있어서 정말 기쁩니다 구글 어시스턴트에는 더 많은 업그레이드가 있을 겁니다 그에 관해서 좀더 이야기해볼까요? 스콧을 무대 위로 모시겠습니다 헤이 구글 매디한테 전화 해 줘 네, 지금 전화합니다 헤이 구글 식사 4명 예약 해 줘 알겠습니다 헤이 구글 동생한테 전화해 줘 헤이 구글 형한테 전화해 줘 캐롤한테 문자해 줘 날 위해서도 캐롤에게 문자해 줄래? 헤이 구글 누가 나한테 문자했어? – 요 구글 – 컷! 케빈, 정말 좋았는데요 우리가 아직 '요 구글'은 못 만들어서요 '헤이'라고 해야 해요 헤이 구글 헤이 구글! 시아 노래 재생해 줘 헤이 구글 다음 편 재생해 줘 넷플릭스에서 크라운 재생해 줘 채닝 테이텀 나온 영화 전부 재생해 줘 알겠습니다 – 요 구글 – 컷! 잘 하셨는데요 제발 한 번만 '헤이 구글'이라고 해 주시면 안 될까요? 헤이 구글 내 휴대폰 찾아 줘 지금 찾고 있습니다 와! 헤이 구글 헤이 구글 헤이 구글! 요 구글 앞문 잠가 줘 컷! 좋아요 그럼 그냥 요 구글로 가죠 아마 기술자들은 그게 뭐든 업데이트하는 걸 좋아하겠죠 요 그냥 헤이 구글이라고 말하고 구글이 하게 하세요 안녕하세요 무었을 도와 드릴까요? 구글 어시스턴트 개발 총책임자 스콧 허프만 2년 전에 바로 이 연례 회의에서 구글 어시스턴트를 발표했습니다 오늘날 어시스턴트는 5억여개의 기기에서 이용 가능합니다 휴대폰, 스피커, 헤드폰 TV, 시계 그리고 그 외의 기기들을 포함해서요 40개가 넘는 자동차 브랜드의 자동차에서도 가능합니다 커넥티드 홈 디바이스 5천여개에서도 작동합니다 식기세척기부터 초인종까지요 전세계 사람들이 매일 어시스턴트를 쓰고 있습니다 예를 들면 우리는 작년에 인도에서 어시스턴트를 출시했습니다 반응이 정말 엄청났습니다 일일 사용량은 올해 초의 세 배가 됐습니다 올해 말까지 어시스턴트가 30개의 언어를 지원하고 80개국에서 이용 가능해 질 겁니다 대단한 진보를 이룬 거죠 그렇지만 아직 시작에 불과합니다 오늘 여러분에게 알려드릴 소식은 어시스턴트가 좀 더 자연스럽게 대화하고 시각적으로 나아질 중요한 방법입니다 여러분이 좀 더 많은 일을 하고 여유 시간을 가질 수 있도록요 피차이CEO가 말했다시피 이제 구글 어시스턴트에서 새로운 음성들을 선택할 수 있습니다 어시스턴트와 좀 더 자연스럽게 대화하기 위해서 중요한 요소죠 그러나 훌륭한 대화 상대가 되기 위해서 어시스턴트는 대화의 사회적 역동성을 깊게 이해해야만 합니다 예를 들어 보겠습니다 솔직히 말해서 어시스턴트가 내 말을 듣게 하고 싶을 때마다 '헤이 구글'이라고 말하는 건 조금 짜증나지 않나요? 여러분이 유튜브에서 보셨을 수도 있는 이 할머니는 분명히 그렇게 느끼고 계십니다 구구! 헤이 구구! 구구! 헬로우 구구! 헤에이 구구 오케이 구구 – 날씨가 어떨지 궁금하대 – 내일 날씨가 내일 날씨가 플래글러 해변의 내일 날씨는 소나기가 내릴 예정이며 기온은 최고 18도, 최저 13도입니다 어시스턴트가 결국 할머님을 위해서 일하긴 했네요 그렇지만 이렇게 힘들어서는 안 되잖아요 이제는 매번 '헤이 구글'이라고 하지 않아도 됩니다 확인해 보시죠 헤이 구글 워리어스가 이겼어? 네, 워리어스가 118 대 92로 이겼습니다 저번 일요일이었고 상대는 펠리칸스였습니다 좋았어! 다음 게임은 언제야? 워리어스의 다음 게임은 오늘 오후 7시 30분입니다 상대 팀은 펠리칸스입니다 고마워 오늘 밤 경기는 재밌겠어 내가 집에 가면 케빈 듀란트 저지 찾으라고 말해줘 알겠습니다 집에 도착하면 말씀 드리겠습니다 제가 자연스럽게 오고 가는 대화를 했다는 걸 눈치채셨나요? 어시스턴트와 대화하면서 후속 요청마다 '헤이 구글'이라고 반복할 필요가 없었죠 훨씬 더 유용한 건 제 어시스턴트가 어시스턴트에게 말하는 것과 여러분에게 말하는 것을 구분할 수 있다는 겁니다 이것을 지속되는 대화라고 부릅니다 가장 요청이 많이 들어온 기능이었습니다 이 기능은 다음주부터 사용 가능 합니다 경기 시간이 다가왔다고 가정해봅시다 헤이 구글 워리어스 경기 켜 주고 팝콘 기계 시작 해 줘 네 유튜브 TV에서 하는 골든 스테이트 워리어스 게임입니다 팝콘 기계 작동시켰습니다 그리고 거실이랑 주방 불 좀 어둡게 해 줘 알겠습니다 거실과 주방 조명을 낮춥니다 이 두 예시에서 제가 한 번에 여러 가지를 요구했다는 걸 알아차리셨나요? 우리한테는 굉장히 자연스러운 일이죠 하지만 컴퓨터가 이해하기는 어려운 일입니다 이것을 다중 액션이라고 부릅니다 이 기능은 지금부터 어시스턴트에서 사용 가능합니다 여러분이 어쩌면 '이게 어려운가?' '-고' 같이 연결어만 찾으면 되잖아' 라고생각할 수도 있는데요 하지만 언제나 그렇게 간단한 일은 아니죠 이 예시에서 '와'가 포함되어 있지만 두 가지 질문이 아니라 사실 하나의 질문이거든요 워리어스와 펠리칸스 중에 누가 이겼지? 하지만 이 예시는 워리어스와 펠리칸스의 선수 명단은? 방금 전의 예시와 비슷해 보이지만 어시스턴트가 문장을 분해해야만 두 가지 질문을 찾아낼 수 있습니다 언어학에서 대등 구조 축소라고 불리는 현상입니다 -워리어스의 선수 명단은? -펠리칸스의 선수명당은? 다중 액션은 더욱 복잡한 방식도 이해할 수 있습니다 그럼 재미를 위해서 헤이 구글 케빈 듀란트가 드래프트되었을 때 누가 캘리포니아의 주지사였지? 그리고 어떤 팀이 그를 드래프트 해갔지? 2007년 주지사는 아놀드 슈왈츠제네거였습니다 시애틀 슈퍼 소닉스가 케빈 듀란트를 드래프트했습니다 좋습니다 혹시 궁금해하실까봐요 감사합니다 다음 이야기를 해 보죠 우리가 연구한 또 다른 건 가정용 구글 어시스턴트의 대화 기능 향상입니다 작년 가을에 구글 어시스턴트의 가정용을 출시했습니다 가족끼리 하기 좋은 게임이나 활동, 이야기들을 제공해줍니다 우리는 책장을 계속 확장했습니다 가족들은 13만 시간이 넘는 동화를 청취했습니다 지난 두 달만 세어 봐도요 가족들을 위한 일을 계속해서 개선해 나가다 보니 많은 부모님들이 걱정을 했습니다 우리 팀에 있는 자녀를 가진 사람들도 그랬죠 아이들이 너무 오만하고 요구만 하게 된다는 겁니다 그냥 '헤이 구글'이라고 말하고 원하는 걸 시키기만 하면서요 이건 접근하기 쉬운 영역이 아니죠 하지만 우리가 한 걸음 내딛었는데 프리티 플리즈라는 기능입니다 아이를 가진 직원 몇몇이 직접 실험해봤습니다 한 번 보시죠 헤이 구글 (불명확함)에게 말해줘 아빠 '주세요'라고 말해야지 오케이 구글 이야기 하나만 해주세요 '주세요'라고 말해주셔서 감사합니다 프리즈 댄스 재생해주세요 정말 상냥하게 부탁하시네요 이야기 하나만 말해주세요 친절하게 부탁해주셔서 감사합니다 옛날 옛날에 괴짜 바다코끼리가 살았습니다 제 숙제 좀 도와주세요 제발요 – 제발 – 제발요 당신은 정말 예의바르시군요 나도 알아요 보신 것처럼 어시스턴트가 정중함이 더해진 긍정적인 대화를 이해하고 반응하는 거죠 가족들과 아동 발달 전문가와 상의하며 일해왔습니다 프리티 플리즈를 올 해 하반기 이내에 가족용 선택사항으로 만들 예정입니다 어시스턴트를 위한 새로운 목소리들부터 지속되는 대화 다중 액션, 프리티 플리즈까지 AI가 우리가 크게 도약하는데 도움을 주고 있습니다 그래서 모두가 좀 더 자연스럽게 어시스턴트와 대화할 수 있습니다 이제 릴리안을 소개하겠습니다 우리가 하고 있는 재밌는 일들을 알려주실 분입니다 음성와 영상 어시스턴트를 통합한 것과 관련해서요 스콧 감사해요 좋은 아침입니다 구글 어시스턴트 프로덕트 매니지먼트 디렉터 릴리안 링콘 지난 몇 년 동안 어시스턴트는 구두 대화에 집중해왔고 그 결과를 구글에서 보고 계십니다 오늘 새로운 비쥬얼 캔버스를 공개하도록 하겠습니다 화면용 구글 어시스턴트입니다 풍부한 시각 자료들과 단순한 목소리를 결합했습니다 매기를 무대 위로 불렀습니다 라이브 데모 버전을 오가면서 보여드릴 예정이거든요 새로운 스마트 디스플레이의 초기 버전 기억하시나요? 이번 1월에 CES에서 보여드렸습니다 우리는 최고의 소비자 가전 브랜드와 협업을 하고 있습니다 오늘 첫 번째 스마트 디스플레이가 오는 7월에 판매될 예정임을 말씀드리게 되어 기쁩니다 오늘 저는 이 새로운 장비가 여러분의 일상을 더 쉽게 만들어 주는 방법을 보여드리겠습니다 음성의 간결성을 터치 스크린의 한 눈에 알아보기 쉬운 속성과 결합해서 말이죠 라이브 데모 버전을 보실까요? 이 기기는 레노버 스마트 디스플레이입니다 은은한 화면에 구글 포토와 결합되어있습니다 제 아이들 사진이 제게 인사하네요 벨라와 허드슨은 진짜 제 아이들입니다 매일 아침을 시작하는 최고의 방법이죠 기기가 제 목소리에 통제되기 때문에 간단한 명령어만으로 영상이나 실시간 TV를 볼 수 있습니다 집 안에서 다른 일을 하면서 제가 제일 좋아하는 프로그램을 놓치지 않게 해 주는 간단한 방법이죠 헤이 구글 지미 키멜 라이브 보여 줘 알겠습니다 유튜브 TV에서 지미 키멜 라이브를 재생합니다 재밌는 일이 있었어요 제가 실제로 겪은 일인데요 오늘 아침에 딸들을 학교에 태워다 주고 있는데 바로 이렇게요 여러분은 유튜브 TV에서 멋진 프로그램들을 볼 수 있는데요 지역 뉴스나 실시간 스포츠 경기부터 아주 많은 프로그램들이 있습니다 이러한 것을 스마트 디스플레이에서 이용하실 수 있을 겁니다 물론 유튜브의 평범한 컨텐츠들을 즐기고 싶으실 수도 있죠 초보자를 위한 영상이나 음악, 새로나온 시리즈 코브라 카이 같은 독자적인 컨텐츠 같은 것 말이죠 정말 재미 있어서 이번주 부터 보기 시작 했습니다 요리는 음성과 화면의 결합이 정말로 유용하게 쓰이는 또 다른 예죠 닉과 저는 간단한 가정용 요리법을 즐겨 봅니다 헤이 구글 피자 밤 레시피 좀 보여 줘 알겠습니다 레시피들을 불러왔습니다 테이스티의 첫 번째 레시피를 선택해죠 맛있어 보이네요 구체적인 레시피가 바로 보이고 요리 시작하기를 탭해주면 됩니다 알겠습니다 테이스티의 레시피입니다 이처럼 시현 영상을 보는 동시에 음성 안내를 들을 수 있습니다 이러한 기능들은 요리에 있어서 혁명과 같습니다 특히 두 손이 뭔가를 하고 있을 때 유용하죠 고마워요 매기 스마트 디스플레이를 활용한 몇 가지 방법으로 가정 생활을 쉽게 만들어봤습니다 훨씬 더 다양한 것들이 남았습니다 방송이나 듀얼 영상 전화를 하면서 가족들과 계속 연락을 하는 것부터 다른 스마트 홈 파트너들을 통해서 계속 집 안 상황을 파악하는 것이나 구글 지도를 통해 아침 출근길을 미리 확인해 보는 것까지요 구글의 제일 좋은 것들을 결합하고 전세계의 개발자 및 협력자들과 작업하여 음성과 영상을 한 데 모아 완전히 새로운 생활방식을 가져올 겁니다 스마트 디스플레이에 고무되어 화면용 어시스턴트에 대해 다시 한 번 생각해봤습니다 우리와 언제나 함께 하는 화면인 휴대폰에 대해서요 휴대폰에서 어시스턴트가 작동하는 방식을 잠깐 보여드릴게요 얼마나 실감나고 상호 작용하며 주도적으로 작동하는 지 보시죠 또 다른 라이브 데모 버전을 볼 건데요 헤이 구글 카밀라 카베요에 대해서 말해줘 위키피디아에 따르면 카를라 카밀라 카베요 에스트라바오는 미국의 가수이자 작곡가입니다 보시다시피 화면의 장점을 활용해서 풍부하고 몰입되는 대답을 합니다 다른 예시입니다 난방 좀 줄여 줘 알겠습니다 거실의 온도를 낮춥니다 스마트 홈에서 여러분은 그저 손가락 하나로 모든 제어를 할 수 있습니다 제가 제일 좋아하는 걸 보여 드릴게요 헤이 구글 스타벅스에서 내가 매일 주문하는 거 주문해 줘 안녕하세요 스타벅스에 다시 와 주셔서 감사합니다 톨 사이즈의 무지방 라떼에 카라멜 드리즐 올려서 한 잔 맞으시죠? 다른 건 필요 없으신가요? 아니요 괜찮아요 그러면 항상 방문하시는 매장에서 가져가실 건가요? 여기서 '네'를 탭합니다 네 주문 접수되었습니다 조금 이따 만나요 어때요? 우리와 협업하는 브랜드는 스타벅스 던킨 도넛, 도어대시, 도미노 그리고 그 외에 많은 동업자들이 음식 방문 포장 및 배달 업계에 있고 구글 어시스턴트와 함께 합니다 몇몇 브랜드들은 이미 사용 가능하고 앞으로 더 많은 브랜드들이 가능할 예정입니다 요구 사항에 대해 훌륭하게 상호작용하는 대응은 정말 도움이 됩니다 하지만 제 이상적인 어시스턴트는 주도적으로 도울 수 있어야 합니다 지금 어시스턴트에 들어와 있는데 여기서 화면을 위로 밀어 올리면 제 하루를 시각적인 스냅 사진으로 확인할 수 있습니다 유용한 제안들도 볼 수 있죠 시각과 위치, 심지어는 어시스턴트와 최근 한 대화에 근거해서요 알림들, 택배들 노트와 목록들까지 모두 있고 잘 정돈되어서 바로 볼 수 있습니다 저는 이런 사소한 것들을 유용하게 관리하고 쉽게 볼 수 있는 편리함을 사랑합니다 이 새로운 휴대폰용 시각 경험은 AI 중심으로 디자인되었습니다 이번 여름에 안드로이드에서, 하반기에 iOS에서 출시됩니다 때때로 시각적 측면을 낮춤으로써 어시스턴트가 더욱 더 실제로 유용하게 쓰이기도 합니다 차 안에 있다고 해 봅시다 운전에 집중해야겠죠 직장에서 집을 향해 가는 길입니다 러시 아워임에도 최단 거리를 보여주는 구글 지도가 있습니다 헤이 구글 닉한테 내 예상도착시간 보내주고 힙합 틀어 줘 알겠습니다 닉에게 20분 뒤 도착한다고 알립니다 유튜브에서 힙합 음악을 검색합니다 남편에게 예상도착시간을 알리는 게 간단한 음성 명령어만으로 가능하니까 정말 편리하죠 구글 지도 네비게이션에 어시스턴트가 장착될 겁니다 이번 여름부터요 스마트 디스플레이, 휴대폰을 거쳐서 지도까지 둘러봤습니다 구글 어시스턴트가 어떻게 활용될 지 느낌이 오시나요 좀 더 시각적 도움이 되는 방법으로요 언제 음성으로 응답할지 그리고 언제 좀 더 몰입하여 대화를 나눌지 알아차릴 수 있습니다 이제 피차이CEO에게 다시 마이크를 넘깁니다 감사합니다 고마워요 릴리안 우리 어시스턴트의 진척사항을 보니 기분이 좋네요 아까 말했지만 우리의 어시스턴트 비전은 여러분이 일을 끝내게 돕는 것입니다 일을 하는 것의 큰 부분이 전화를 거는 것이더라구요 엔진 오일 교환 일정을 잡고 싶을 수도 있고 주중에 배관공에게 연락하고 싶을 수도 있고 미용실 예약을 하고 싶을 수도 있습니다 그런 순간에 사용자를 돕기 위해서 열심히 연구했습니다 사용자들과 사업을 좋은 방식으로 연결하고 싶었습니다 사업은 사실 예약에 많이 의지하죠 하지만 심지어 미국에서도 소기업의 60%는 온라인 예약이 불가능합니다 AI가 그런 문제를 도와줄 수 있을 것이라 생각했습니다 이 예시를 봅시죠 구글에게 화요일에 미용실 예약을 부탁하고 싶다고 해보죠 오전 10시에서 12시 사이에요 무슨 일이 일어날 거냐면 구글 어시스턴트가 여러분을 위해 매끄럽게 전화를 해 예약 하는 것입니다 지금부터 들으실 것은 구글 어시스턴트가 실제 미용실 직원에게 전화를 해서 예약을 하는 내용입니다 들어보시죠 여보세요 무엇을 도와드릴까요? 여보세요 제 고객의 컷트 예약을 하려는데요 5월 3일에 가능한가요 그럼요 잠깐만 기다려주세요 몇 시쯤에 생각하시나요? 오후 12시쯤이요 오후 12시는 꽉 찼습니다 제일 가까운 시간은 1시 15분 정도예요 오전 10시에서 오후 12시 사이에는 안 되나요? 뭘 하시느냐에 따라 달라집니다 고객이 어떤 서비스를 원하시죠? 그냥 여성 컷트요 알겠습니다 그러면 오전 열시에 가능해요 오전 열시 괜찮네요 고객님 성함이 어떻게 되시나요? 리사예요 알겠습니다 완벽해요 5월 3일 오전 10시에 리사씨 예약되셨습니다 네 알겠어요 감사합니다 감사해요 좋은 하루 되세요 여러분이 들으신건 실제 통화입니다 어시스턴트가 실제로 대화의 뉘앙스를 이해한다는 게 정말 놀랍지 않나요 이 기술 연구에 수년을 들였습니다 이를 구글 듀플렉스라고 부릅니다 자연스러운 언어 이해와 딥 러닝, 실감나는 대화에 우리가 수년동안 들인 투자의 산물이죠 어시스턴트는 일이 끝나면 예약이 완료되었다는 확인 알림을 여러분에게 전해줍니다 다른 예시를 보여드리겠습니다 식당에 전화를 하고 싶다고 해 봅시다 아마 작은 식당일 거예요 온라인 예약이 보통 불가능하죠 그리고 통화가 예상과는 조금 다른 방향으로 전개됩니다 한 번 들어보시죠 여보세요 무엇을 도와드릴까요? 안녕하세요 7일 수요일에 예약하려구요 일곱 분인가요? 4명이에요 네 분이요? 언제죠? 오늘인가요? 오늘밤? 다음 수요일 오후 여섯시요 사실 우리 가게는 5명부터 예약할 수 있어요 네 분이라면 그냥 오시면 됩니다 자리에 앉기까지 대기 시간은 어느 정도인가요? 언제요? 내일이요? 아니면 주말? 다음 주 수요일이요 7일 입니다 그리 붐비지 않을 거예요 네 분이 오시는 거 맞죠? – 알겠습니다 감사해요 – 네 들어가세요 다시 말씀드리지만 실제 통화입니다 예상처럼 흘러가지 않는 통화는 자주 있는 일이잖아요 어시스턴트는 문맥과 뉘앙스를 이해하고 만일에 대비해서 대기시간까지 물어봅니다 대화를 우아하게 다뤘어요 이 기술은 여전히 개발 중이고 열심히 연구하고 있습니다 사용자들의 경험과 기대를 충족시켜 회사와 사용자 모두에게 좋도록요 올바르게 이루어진다면 사람들의 시간을 절약하고 회사들에게 큰 가치를 창출해 줄 겁니다 이런 때에도 사용 가능하게 하고 싶어요 아침을 맞이한 바쁜 부모님인 거예요 게다가 아이가 아파서 의사에게 예약 전화를 하는 상황입니다 이 상황에 사용 가능하려면 정말 열심히 일해야 할겁니다 이보다 단순한 일들에는 조만간 사용 가능하게 출시될 겁니다 예를 들면 매일 구글에는 많은 질문들이 올라옵니다 사람들이 사업체의 개장 시간과 폐장 시간을 알고 싶어하는 질문들이 많죠 하지만 휴일이 끼면 까다로워지잖아요 사업체들은 많은 전화를 받게 되죠 그래서 우리 구글이 단 한 통의 전화를 하고 그 정보를 수백만 사용자들을 위해서 업데이트를 하는 겁니다 그러면 소규모 사업체들이 무수히 많은 전화를 받을 필요가 없겠죠 이렇게 시간을 수정함으로써 사용자들에게 더 나은 경험을 하게 만들어 줄 겁니다 다가오는 주에 이 기능을 시험 삼아 출시할 예정입니다 지켜 봐 주세요 이 모든 것을 아우르는 하나의 주제는 우리가 사용자들에게 시간을 주기 위해 열심히 노력한다는 것입니다 구글에서는 이점에 집착해왔습니다 검색에서는 사용자들이 원하는 답을 빠르게 찾아서 알려주는 데 집착했죠 그리고 저는 새로운 영역인 디지털 웰빙으로 들어섰습니다 연구 결과에 따르면 사람들은 전자기기에 매여 산다고 느낍니다 여러분들도 이런 기분을 느끼시겠죠 사회적인 압박은 커져만 갑니다 무엇이든 받는 즉시 응답하라구요 사람들은 정보를 바로바로 처리하느라 초조해합니다 포모를 겪고 있죠 최신 유행에 뒤쳐지는 것을 두려워합니다 우리는 더 나은 방법이 있을 거라고 생각했고 사람들에게 말해왔습니다 몇몇이 조모라는 개념을 알려주더군요 유행에 뒤쳐지는 즐거움이죠 그래서 우리는 디지털 웰빙이 진짜로 사용자들을 도울 수 있다고 믿습니다 많은 노력이 지속되어야 할 겁니다 우리의 모든 상품들과 플랫폼에 걸친 노력이죠 여러분의 도움이 필요합니다 디지털 웰빙으로 사용자를 도울 수 있는 방법은 네 가지입니다 여러분의 습관을 이해하고 문제를 파악하여 필요할 때 스위치를 꺼버립니다 가장 중요한 건 가족과의 균형을 찾는 거죠 예시를 몇 개 보여드리겠습니다 다가오는 출시일에 안드로이드에서 이 소식을 듣게 될 겁니다 제가 가장 좋아하는 기능은 바로 대시보드입니다 안드로이드에서 여러분이 어떻게 시간을 쓰는 지를 완벽하게 보여드릴 예정인데요 작동시켰던 앱들 그 날짜에 휴대폰을 켠 횟수 받은 알림 수 그리고 그것들을 해결하여 더 나아지도록 도울 생각입니다 앱들도 도움이 될 수 있죠 유튜브가 선두에 설 텐데요 만약 여러분이 동의한다면 휴식을 취하라고 알림을 줄 겁니다 예를 들어서 한동안 유튜브를 봤다면 알림창이 떠서 말하는 거죠 '휴식을 취할 시간입니다' 사용자들이 원한다면 유튜브가 시행할 다른 것은 모든 알림을 통합하는 겁니다 일별 요약 형태로 말이죠 네 개의 알림이 왔다면 하루에 한 번만 알림이 오는 거죠 유튜브가 이 기능을 이번 주에 출시할 예정입니다 이 분야에 있어서 많은 작업을 해 왔어요 패밀리 링크가 좋은 예죠 부모님들에게 자녀의 화면 보는 시간을 관리할 수 있는 도구를 제공했습니다 전 이게 중요한 부분이라고 생각합니다 여기에서 더 나아가고 싶습니다 아이들이 똑똑한 결정을 내릴 준비를 갖추게 하고 싶습니다 그래서 우리의 새로운 접근 방식인 구글 디자인 접근입니다 비 인터넷 어썸이라고 부르죠 아이들이 디지털 세상에서 안전한 탐험을 하게 도와줍니다 아이들이 안전하고 친절하며 사려 깊은 온라인 세상에 있기를 원합니다 다가오는 해에 아이들 오백만명을 추가로 훈련시킬 것을 서약합니다 지금 보시는 이 모든 도구들은 우리 디지털 웰빙 사이트에서 오늘 오후에 출시됩니다 우리가 거대한 책임감을 느끼는 또 다른 분야가 있습니다 바로 뉴스입니다 뉴스는 우리 주요 임무죠 또한 이런 시대에는 양질의 언론을 지원하는 것이 어느 때보다 중요한 일이잖아요 민주주의가 작동하는 데 기본이 되죠 저는 언제나 뉴스를 좋아했어요 인도에서 자라면서 분명히 기억하는 건 제가 신문을 기다렸었다는 거예요 할아버지는 제 바로 옆에서 같이 기다리셨죠 분명한 서열이 있었습니다 할아버지가 신문을 제일 먼저 보시고 그 다음은 아버지, 그리고 제 형까지 읽으면 제 차례가 왔죠 그 당시에는 주로 스포츠 영역을 좋아했습니다 시간이 흐르면서 뉴스에 대한 저의 애정도 커져갔고 오늘날까지도 저와 함께하고 있습니다 뉴스 산업에게 어려운 시기입니다 구글 뉴스 이니셔티브를 최근에 출시했습니다 삼억 달러를 향후 삼년간 투자하기로 결정했습니다 기관이나 기자들과 함께 일하면서 산업에 도움이 되는 혁신적인 제품과 프로그램을 개발하는 데 도움을 주고 싶습니다 그와 관련한 제품인 구글 뉴스는 오랫동안 우리 곁에 있었죠 사실 911테러 직후에 만들어졌습니다 스무 명의 직원이 투입된 프로젝트로 다양한 신문사의 뉴스를 보고 무슨 일이 일어났는지 더 잘 이해하고 싶어했던 한 기술자에 의해 시작됐습니다 그 때부터 컨텐츠의 양과 다양성은 커져가기만 했습니다 오늘날 생산되는 기사는 그 어느 때보다 대단한 양을 보여줍니다 도움이 간절해서 구글을 켠 사람들에게 정확한 정보를 제공하는 것이 우리의 책임인 것이 사실이죠 이게 바로 우리가 뉴스 프로젝트를 다시 구상하게 된 이유입니다 AI를 활용해서 언론이 제시해야 하는 제일 중요한 것을 우선 제시합니다 사용자가 신뢰하는 양질의 기사를 제공하고 싶습니다 하지만 출판사들을 위한 제품도 만들고 싶습니다 그 무엇보다도 깊은 통찰력과 완전한 관점으로 사용자가 관심있어 하는 주제를 제공해주고 싶습니다 새로운 구글 뉴스를 발표하게 되어 굉장히 떨립니다 트리스탄이 더 자세하게 설명해 줄 겁니다 구글 뉴스 엔지니어 트리스탄 업힐 피차이CEO님 감사합니다 새로운 구글 뉴스와 함께 세 가지 일을 도우려고 합니다 첫 번째, 여러분이 관심 있는 뉴스를 계속 알 수 있게 하겠습니다 두 번째, 완전한 이야기를 이해하게 하겠습니다 마지막으로 여러분이 사랑하는 신문사를 즐기고 후원할 수 있게 하겠습니다 결국 뉴스 출판사와 그들이 만드는 양질의 기사가 없다면 오늘 여러분에게 보여 줄 것이 아무것도 없겠죠 어떻게 여러분이 관심 있는 뉴스를 더 쉽게 알도록 만들 지부터 시작해보도록 하겠습니다 구글 뉴스를 켜면 제일 윗 부분에 지금 바로 알아야 하는 주요 기사 다섯 개의 브리핑이 보입니다 브리핑 밑으로는 당신만을 위해서 선택된 기사들이 보입니다 우리 AI가 지속적으로 웹의 파이어호스를 읽어서 매분 발행되고 있는 수백만개의 기사, 영상, 팟캐스트 그리고 댓글들을 당신이 알아야 하는 주요한 것에 따라 정리해 줄 겁니다 구글 뉴스는 각 지역 사건과 그 지역의 의견들도 보여줍니다 자신의 공동체에 연결된 것을 느끼게 해 주는 정보죠 크로니클의 이 기사는 새로운 베이브리지를 지나는데 얼마나 걸리는지를 궁금하게 했습니다 멋있는 건 제가 굳이 앱에게 나는 정치를 따른다거나 자전거를 좋아한다거나 베이 에리어에 대해 알고 싶다는 것을 말 할 필요가 없이 완벽하게 작동 합니다 그리고 우리가 앱에 강화학습같은 기술을 적용시켰기 때문에 더 많이 사용할수록 더 나아질 겁니다 언제든지 바로 이 출판사나 주제는 더 적게 혹은 더 많이 보고 싶다고 말해도 됩니다 다른 사람들은 뭘 읽는지 궁금해지면 헤드라인으로 바꿔서 지금 전세계에서 가장 보도가 많이 되는 주요 기사들을 볼 수도 있죠 더 살펴볼까요? 크고 멋있는 사진들이 많아서 이 앱이 완전히 시선을 사로잡는 걸 알 수 있죠 진심으로 훌륭한 영상은 물론이구요 한 번 보시죠 (기기에서 나오는 음악과 환호) 유튜브나 웹에 퍼져 있는 모든 최신 영상을 볼 수 있습니다 우리의 디자인은 앱을 가볍고, 쉽고, 빠르고 또한 재밌게 만드는 데 중점을 뒀습니다 우리의 처리 원칙은 이야기가 스스로 말하게 하는 것입니다 꽤 괜찮죠? 앱을 통해서 보시고 있는 것은 새로운 구글 머티리얼 테마입니다 앱 전체가 머티리얼 디자인을 이용해서 만들어졌는데요 변환할 수 있고 통일된 우리의 디자인 시스템으로 구글에서 특별히 맞춤 제작한 것입니다 오늘 오후에 더 자세한 설명과 각자의 제품에서 머티리얼 테마를 이용하는 방법에 대해 들으실 수 있습니다 새로운 비쥬얼 포맷인 뉴스캐스트를 기쁜 마음으로 소개하겠습니다 이런 것은 어떤 뉴스 앱에서도 보실 수 없으실텐데요 뉴스캐스트는 이야기를 미리보기하는 기능입니다 무슨 얘기인지 쉽게 알아차릴 수 있게 해 주죠 영화 스타 워즈와 관련된 이야기를 함께 확인해보시죠 자연스러운 언어 이해의 최신 기술을 이용해서 모든 것을 한 데 모았습니다 솔로의 영화 예고편부터 뉴스 기사나 캐스트의 언급까지 모두요 새로운 제시방식으로 휴대폰으로 보기에 아주 멋지죠 뉴스캐스트는 기본적인 것을 알기 쉽게 해 주고 더 자세히 알고 싶은 것을 결정할 수 있게 해 줍니다 또 가끔씩은 다른 방식으로는 절대 알지 못했을 것도 발견합니다 제가 제일 관심 있는 기사나 정말 복잡한 기사의 경우에는 뛰어들어서 다양한 관점을 확인하고 싶잖아요 그런 관점에서 구글 뉴스의 두 번째 목표에 대해서 얘기해 볼까요? 이야기 전체를 이해하는 겁니다 오늘날 스스로의 관점을 넓혀서 뉴스를 심도 깊게 이해하는 건 많은 노력이 필요하잖아요 구글 뉴스와 함께라면 큰 힘을 기울이지 않고 가능합니다 풀 커버리지는 더 자세히 알려주겠다는 초대장입니다 다양한 신문사와 형식으로 전해지는 이야기들 측면에서 이야기의 전체적인 그림을 완성시킵니다 우리는 시간적 동일 지역성이라는 기술을 이용해서 풀 커버리지를 만들었습니다 이 기술을 통해서 우리는 각 개체간의 관계를 볼 수 있고 이야기 속 사람, 장소, 물건을 이야기에서 전개된 그대로 이해할 수 있습니다 언제든지 이 기술을 웹의 정보의 홍수에 적용하여 줄거리에 맞게 구성합니다 전부 실시간으로 이뤄지죠 현존하는 가장 강력한 앱 기능입니다 뉴스를 파헤칠 수 있는 완전히 새로운 방식을 제공하죠 풀 커버리지가 작동하는 방법을 최근 푸에르토리코에서 발생한 정전을 통해서 알아보시죠 이 사건에 대해 굉장히 많은 궁금증을 가지고 있었습니다 "어떻게 일이 이 지경이 됐지?" "예방할 수는 없었을까?" "이 일이 해결되고는 있을까?" 같은 질문이었죠 풀 커버리지를 만들어서 이 모든 것을 한 자리에서 이해할 수 있게 해 봤습니다 무슨 일이 일어났는지 알려주는 주요 표제들부터 시작했습니다 그리고 실시간 사건 이해를 이용해서 중요한 이야기 측면에서 정리를 해 나갔습니다 이 일처럼 몇 주, 몇 달에 걸쳐서 발생하는 사건의 뉴스의 경우에는 우리의 주요 사건 시간대를 봄으로써 사건 전개를 파악할 수 있습니다 그리고 복구가 시작되었지만 아직 가야 할 길이 멀었음을 분명히 알 수 있었습니다 아직 남은 사건에 대한 질문들을 끄집어냈습니다 여러분이 직접 답을 찾으러 나갈 필요가 없게요 우리가 사건의 전후사정과 다양한 시각을 알고 있으므로 관련 인물의 트윗이나 여론 분석, 사실 확인 등을 보여주고 한 단계 깊게 이야기를 이해할 수 있도록 돕습니다 각각의 경우에서 왜 이 정보가 중요한지 어떤 특별한 가치를 지녔는지를 우리 AI가 강조해줍니다 제가 풀 커버리지를 사용하면서 제가 관심 있는 주제에 대해서 방대한 양의 지식을 쌓을 수 있다는 것을 알았습니다 360도의 시각을 가질 수 있었습니다 표제 몇 개를 훑어봤을 때보다 훨씬 나은 결과죠 그 무엇보다도 우리 연구 결과에 의하면 건설적인 대화나 토론을 위해서는 모두가 같은 정보를 얻을 수 있어야합니다 그게 바로 풀 커버리지에서 같은 주제에 대해 모두가 같은 내용을 보는 이유입니다 신뢰 할만한 신문사에서 여과 없이 사건에 대한 시각을 보여드립니다 감사합니다 이 말은 꼭 하고 싶었는데 저는 이 새로운 기능들을 사랑합니다 이것들은 우리가 새로운 구글 뉴스를 더 재미있게 만들기 위해 구상한 것 중 일부분에 불과합니다 하지만 아까 말씀드렸다시피 이 모든 건 대단한 언론이 매일 만들어내는 것이 없었다면 존재할 수 없습니다 이것은 바로 우리의 마지막 목표인 여러분이 좋아하는 신문사를 즐기고 후원하게 돕는 것으로 이어지죠 앱의 전면 중앙에 신문사를 위치시켰습니다 그리고 뉴스스탠드에서는 좋아하는 신문사를 찾아서 팔로우하거나 새로운 신문사를 검색하고 찾기 쉽습니다 천여개가 넘는 잡지도 있는데요 와이어드, 내셔널 지오그래픽, 피플 같은 잡지로 모두 제 휴대폰에서 보기에는 아주 멋있네요 USA 투데이같은 출판물을 팔로우하려면 별 모양을 직접 탭하면 됩니다 만약 구독하고 싶은 출판물이 있다면 예를 들어 워싱턴 포스트를 구독하고 싶다면 이를 매우 쉽게 만들었습니다 양식도 신용카드 번호도 새로운 비밀번호도 필요 없습니다 구글 계정으로 가입하기 때문에 이미 준비가 되어있죠 출판사를 구독하면 어디에서나 쉽게 컨텐츠를 볼 수 있어야 한다고 생각합니다 그리고 이게 구글을 통한 구독을 개발한 이유입니다 구글을 통한 구독은 구글 계정으로 로그인한다면 이미 지불한 컨텐츠를 어디에서든 이용 가능하게 합니다 어떤 플랫폼이나 장비든지 구글 써치나 구글 뉴스, 출판사의 사이트에서 지불한 것이라면요 전세계 60개가 넘는 출판사들과 공동으로 작업했습니다 다가오는 주에 출시될 예정입니다 감사합니다 언제 어디서든지 가장 중요한 신뢰할 수 있는 고품질의 정보에 쉽게 접근할 수 있게 하기 위해서 우리가 나아가야 할 수많은 단계 중 하나였습니다 그게 새로운 구글 뉴스였죠 관심 있는 뉴스를 계속 볼 수 있고 브리핑과 뉴스캐스트를 제공해주고 이야기 전체를 이해할 수 있으며 풀 커버리지를 사용할 수 있고 좋아하는 신문사를 읽고 팔로우하고 구독함으로써 즐기고 후원할 수 있게 해줍니다 이제 발표할 제일 좋은 뉴스는 127개국의 안드로이드와 iOS, 그리고 웹에서 오늘부터 이 기능을 사용할 수 있다는 겁니다 저도 그렇게 생각해요 정말 멋진 일이죠 다음 주부터는 누구든지 사용할 수 있을 겁니다 구글에서는 정확한 적시의 정보를 사람들에게 제공하고 양질의 언론을 만들고 후원하는 게 그 어느 때보다 바로 지금 중요하다는 것을 알고 있습니다 우리의 역할을 수행하기 위해 최선을 다하겠습니다 이 여정을 여러분과 함께 하게 되기를 고대합니다 이제 제가 소개할 데이브는 안드로이드의 최신 소식을 알려줄 겁니다 안드로이드는 단순한 목표를 가지고 시작했습니다 모바일 산업에 공개된 표준을 만들자는 것이었죠 오늘날 안드로이드는 전세계에서 가장 유명한 모바일 운영 체계입니다 학습을 위한 개방 지원을 위한 개방 변화를 위한 개방 차이를 위한 개방 모두를 위한 개방 새로운 한계를 향한 개방 새로운 친구를 위한 개방 세상을 향한 개방 미래를 향한 개방 만약 당신이 개방성을 믿는다면 선택을 믿는다면 모두의 혁신을 믿는다면 안드로이드에 오신 것을 환영합니다 10년간 감사했습니다 모두들 안녕하세요 2018 개발자 회의에 참가하게 되어 영광입니다 안드로이드 엔지니어링 담당 부사장 데이브 버크 십년 전에 첫 번째 안드로이드 휴대폰인 T 모바일 G1을 출시했습니다 간단하지만 대담한 아이디어였습니다 모두에게 열려 있는 무료 모바일 플랫폼을 만들자 그리고 오늘날 그 아이디어는 빛을 발하고 있습니다 우리 동업자들이 수만개의 스마트폰을 출시해서 전세계 수십억의 사람들이 이를 사용하고 있습니다 이 여정을 통해서 우리는 안드로이드가 단순한 스마트폰 운영 체계를 뛰어넘었다는 것을 알 수 있었습니다 웨어러블 기기나 TV, 자동차, AR, VR, IoT 등의 새로운 컴퓨팅 분야에 힘을 불어넣어 주고 있습니다 지난 십년간 안드로이드의 성장은 데스크탑에서 모바일로의 컴퓨팅의 변화를 도왔습니다 피차이CEO가 말했듯이 세계는 새로운 변화에 직면해 있습니다 AI가 산업을 크게 변화시킬 겁니다 건강 관리나 교통같은 분야에서요 우리 산업 역시 이미 바뀌고 있습니다 그 결과 우리가 작업하고 있는 새로운 안드로이드인 안드로이드 P가 나왔습니다 안드로이드 P는 AI를 운영 체계 핵심으로 하는 새로운 비전의 중요한 첫 걸음입니다 사실 AI는 이번 출시의 세가지 테마의 첫 번째 테마를 뒷받침해줍니다 세가지 테마는 지능 단순함 디지털 웰빙입니다 지능부터 시작해보겠습니다 우리는 스마트폰이 더 똑똑해져야 한다고 믿습니다 스마트폰은 여러분에게서 배우고 여러분에게 적응해야 합니다 내장된 머신 러닝같은 기술은 여러분의 사용 패턴을 익히고 자동적으로 다음 행동을 예상해서 여러분의 시간을 절약해줍니다 기기에서 운영되기 때문에 데이터가 휴대폰에서 비공개로 저장됩니다 몇몇 예시를 통해서 이 기술을 어떻게 안드로이드에 적용시켜 더 똑똑한 운영 체계를 만들었는지 직접 확인해보시죠 거의 대부분의 설문조사에서 스마트폰 사용자들은 제일 걱정되는 것으로 배터리 수명을 꼽았습니다 여러분에게도 적용될 지 모르겠지만 이건 제 버전의 매슬로의 욕구 단계입니다 배터리, 와이파이, 생리적 욕구 안정, 애정, 존경, 자아 실현 다 겪어보신 적 있으시잖아요 배터리가 충분한 것 같았는데 집 밖을 나서기만 하면 평소보다 빠르게 사라지면서 충전기로 달려가야만 하죠 안드로이드 P는 딥 마인드와 협력하여 적응형 배터리라는 새로운 기능을 만들었습니다 여러분에게 좀 더 지속되는 배터리를 선사하기 위해 설계되었습니다 적응형 배터리는 내장된 머신 러닝을 사용하여 다음 몇 시간 동안 당신이 어떤 앱을 사용할지 어떤 앱을 오늘은 전혀 사용하지 않을지를 예측할 수 있습니다 그리고 그 예측과 운영 체계가 적응한 당신의 사용 패턴을 결합하여 당신이 쓸만한 앱과 서비스에만 배터리를 소모합니다 결과는 굉장히 탁월했습니다 전체적으로 켜진 앱에 쓰이는 CPU를 30% 감소시킬 수 있었습니다 작은 CPU 코어를 이용하여 작동하는 백그라운드 프로세서같은 다른 수행 능력 향상과 결합되어 많은 사용자들에게 배터리 사용 시간을 늘려주었습니다 꽤 멋지죠 OS가 사용자에게 적응하는 또 다른 예시는 자동 밝기 조절입니다 대부분의 현대 스마트폰은 밝기를 자동으로 조절합니다 주변의 밝기 조건을 따져서요 하지만 한 방식으로만 작동하죠 여러분의 개인적 기호나 환경은 고려하지 못합니다 그래서 여러분이 직접 밝기를 조정하는 일이 자주 일어나게 되고 나중에는 화면이 너무 밝아 보이거나 너무 어둡게 보이게 됩니다 그래서 안드로이드 P에서는 새로운 내장 머신 러닝 기능인 적응형 밝기를 씁니다 적응형 밝기는 주변 조명에 따라 여러분이 어떻게 밝기 조절을 하는지 습득해서 그대로 조절을 해줍니다 에너지 효율적인 방법으로요 휴대폰이 여러분의 기호에 적응함에 따라 여러분은 밝기가 말 그대로 자동 조절되는 것을 볼 수 있습니다 놀랍도록 효율적이죠 실제로 시험 사용자 중 약 절반이 이전 안드로이드 버전들에 비해서 직접 밝기 조절을 덜 하게 되었습니다 우리는 UI 역시 좀 더 지능적으로 만들었습니다 작년에 예상 앱이라는 개념을 소개했습니다 여러분이 평소에 앱을 사용하는 흐름에 맞춰 OS가 다음으로 여러분이 필요로 할 앱을 예상하고 보여주는 기능입니다 매우 효율적이죠 거의 60%의 예상률을 보여줬습니다 안드로이드 P는 단순히 다음에 실행할 앱을 예상하는 수준을 벗어나서 여러분이 다음에 취할 행동이 무엇인지 예상합니다 이 기능은 앱 액션이라고 합니다 어떤 기능인지 한 번 보시죠 런처의 맨 위에 두 가지 액션이 보이시죠 하나는 제 여자동생인 피오나에게 전화하는 것이고 다른 하나는 스트라바 앱을 사용해 저녁 조깅을 시작하는 것입니다 그러니까 액션들이 제 사용 패턴에 따라 예상되는 거죠 휴대폰이 저에게 맞춰서 제 다음 일을 하도록 돕는 겁니다 더욱 빠르게 할 수 있게요 다음 예시입니다 제가 헤드폰을 연결하면 안드로이드는 제가 듣던 앨범을 다시 틀어줍니다 앱 액션을 지원하기 위해 개발자들은 앱에 actionsxml을 추가해주기만 하면 됩니다 그러면 액션이 런처에서 뿐 아니라 스마트 텍스트 선택, 플레이스토어, 구글 검색 그리고 어시스턴트에서까지 작동할 겁니다 구글 검색을 보시죠 우리는 다른 방식들로 액션이 나타나게 실험을 하고 있습니다 설치해서 많이 쓰는 앱들을 위해서요 예를 들면 저는 판당고를 아주 자주 씁니다 그래서 제가 새로운 어벤져스 영화인 인피니티 워를 검색하면 보통의 제안에 더해서 판당고 앱에서 표를 사는 액션까지 받게 됩니다 꽤 멋있죠 액션은 간단하지만 대단한 아이디어로 여러분의 상황에 맞게 앱에 깊은 연결고리를 제공해줍니다 하지만 그보다 더 대단한 것이 있습니다 앱 UI를 그때그때 적절하게 사용자에게 제공하는 겁니다 이걸 슬라이스라고 부릅니다 슬라이스는 새로운 API로 개발자들이 앱 UI에서 상호작용되는 정보를 분명히 하게 해 줍니다 OS에서는 다른 곳에서 나타날 수도 있습니다 안드로이드 P에서는 슬라이스를 검색에서 가장 먼저 보여주는 준비 작업을 해 두었죠 한 번 보실까요? 제가 밖에 나와 있는데 출근하기 위해 차를 타야 한다고 합시다 제가 구글 검색 앱에 리프트를 입력하면 제 휴대폰의 리프트 앱에서 만든 슬라이스를 볼 수 있습니다 리프트는 슬라이스 API를 이용해서 UI 템플릿의 다양한 배열을 보여줍니다 검색하는 중에 리프트 앱의 슬라이스를 만들기 위함이죠 그러고 나면 리프트가 제 직장까지의 비용을 보여주고 슬라이스가 상호작용할 수 있기 때문에 저는 바로 거기서 택시를 부를 수 있죠 아주 좋습니다 슬라이스 템플릿은 다용도로 개발자들이 모든 곳에 쓸 수 있습니다 영상 재생부터 호텔 체크인까지요 또 다른 예들 들어볼가요 제가 하와이를 검색하면 구글 포토에서 제 휴가 사진 슬라이스를 보여줍니다 우리는 놀라운 파트너들과 함께 앱 액션과 슬라이스를 작업했습니다 개발자들을 위한 얼리액세스가 다음 달에 좀 더 광범위하게 열릴 예정입니다 지금까지 액션이 그 중에서도 슬라이스가 역동적인 양방향 경험을 가능하게 해 주는 것을 보셨습니다 앱의 UI가 상황에 맞게 지능적으로 나타나서 가능한 일이죠 지금까지 우리가 안드로이를 사용자에 맞추게 하기 위해 운영체계를 가르쳐 좀 더 지능적으로 만들고 있는 방법들을 소개했습니다 머신 러닝은 강력한 도구입니다 하지만 개발자들이 배우고 적용하기에 어렵거나 비싸게 느껴질 수 있죠 우리는 이런 도구가 머신 러닝에 대해 전문지식이 없거나 적은 사람들에게도 접근 가능하고 쓰기 쉽게 되기를 원했습니다 그래서 제가 오늘 발표할 것은 ML 키트입니다 새로운 API 세트로 파이어베이스를 통해 사용 가능합니다 ML 키트는 여러분에게 내장 API를 줘서 문자 인식, 얼굴 탐지 영상 표지 등등에 쓸 수 있게 합니다 ML 키트는 구글의 클라우드 기반 ML 기술에 다가갈 수 있는 능력을 지원해줍니다 시스템 구성상으로 ML 키트는 사용 준비가 완료된 모델을 제공하고 텐서플로우 라이트를 기반으로 하며 모바일에 최적화되어 있습니다 가장 좋은 점은 ML 키트가 공통 사용이 가능해서 안드로이드와 iOS 모두에서 작동하는 기능이라는 겁니다 구글은 ML키트를 통해 굉장히 좋은 결과를 얻은 협력사들과 함께 일하고 있습니다 예를 들면 유명한 칼로리 계산 앱인 루즈 잇!은 우리의 문자 인식 모델을 써서 영양 정보를 검사하고 ML 키트 맞춤형 모델 API를 써서 카메라를 통해 수집한 200가지의 다른 음식들을 자동적으로 분류합니다 오늘 오후 개발자 기조 연설에서 ML 키트에 대해 더 들으시게 될겁니다 스마트폰을 더 지능적으로 만들 수 있어서 너무 좋지만 우리에게는 유행이 지나간 기술도 중요합니다 우리의 지난 몇 년간 주요 목표는 안드로이드 UI를 현재의 사용자들과 다음 안드로이드 사용자 10억 둘 모두에게 좀 더 간단하고 접근 가능하게 진화시키는 것이었습니다 안드로이드 P에서는 단순함을 특별히 강조했습니다 우리가 생각하고, 여러분이 말씀 해주신 불만 사항들 즉, 원안 보다 더욱 복잡했던 경험들을 다루면서말이죠 이러한 개선사항은 구글 버전의 안드로이드 UI를 적용한 기기에서 찾아 보실 수 있는데 구글 픽셀이나 안드로이드 원 기기들이죠 제 휴대폰에서 라이브 데모 버전을 몇 개 실행해보겠습니다 원형 극장에서 칠천명이 저를 주시하는데 뭐가 잘못되겠어요? 그렇죠? 안드로이드 P를 통해 새로운 시스템 탐색 방법을 소개합니다 우리가 일년 넘게 연구한 결과죠 새로운 디자인이 안드로이드의 멀티태스킹을 좀 더 접근하기 쉽고 이해하기 쉽게 했습니다 가장 먼저 눈에 띄는 것은 하나의 깨끗한 홈 버튼입니다 더 적은 베젤을 원하는 디자인 트렌드를 인식해서 화면 가장자리의 여러개의 버튼보다는 제스처에 강조를 둔 디자인입니다 제가 화면을 밀어 올리면 바로 오버뷰가 생성 되고 최근에 사용했던 앱을 다시 사용할 수 있습니다 화면 하단에는 예상 앱 다섯개가 있어서 시간을 절약할 수 있습니다 계속해서 화면을 밀어 올리면, 즉, 두 번 위로 밀어올리면 모든 앱을 볼 수 있습니다 그러니까 시스템 공학적으로 우리가 한것은 것은 모든 앱과 오버뷰 공간을 하나로 합친 것입니다 밀어 올리는 제스처는 어디에서는 통합니다 어떤 앱을 사용하고 있든지 모든 앱과 오버뷰로 빠르게 돌아올 수 있는 거죠 제가 하고 있던 것들을 없애지 않고서도요 그리고 만약 원하신다면 퀵 스크럽 제스처를 사용하실 수도 있습니다 홈 버튼을 옆으로 슬라이드해서 최근 사용한 앱들을 스크롤하는 거죠 이 커진 수평 오버뷰의 장점 중 하나는 앱 컨텐츠를 알아 보기 쉬워서 이전에 사용한 앱의 정보를 다시 보기 편하다는 겁니다 심지어 우리는 스마트 텍스트 선택을 오버뷰까지 확장시켰습니다 예를 들면 제가 밴드 더 킬러스의 설명 중 한 곳을 탭하면 문구가 선택되어지고 스포티파이 같은 앱에서 들어볼 수 있는 액션이 보입니다 스마트 텍스트 선택은 또한 신경망까지 확장되어 좀 더 많은 개체를 인식할 수 있습니다 스포츠 팀이나 음악가, 항공편 번호들까지도요 이 뷰 탐색 시스템을 지난 달에 사용해보면서 정말 좋았습니다 훨씬 빠르고 효율적으로 끊임없이 멀티태스킹을 할 수 있죠 탐색 작업을 바꾸는 것은 굉장히 어려운 일입니다 하지만 가끔씩은 작은 변화가 큰 차이를 가져오기도 하죠 음량 조절이 한 예입니다 다들 그런 경험 있으시잖아요 영상이 재생되기 전에 음량을 줄이려고 했는데 그 대신에 벨소리를 작게 하고 영상의 음성이 주변에 있는 모두에게 울려 퍼졌던 경험이요 이걸 어떻게 고칠 수 있을까요? 여기 새롭게 나온 간편해진 음량 조절이 있습니다 수직으로 되어 있고 하드웨어 버튼 옆에 있어서 직관적이죠 주요 차이점은 이제 슬라이더가 미디어 음량만을 조절한다는 겁니다 그게 제일 자주 조절하는 거니까요 벨소리 음량에 있어서 제일 자주 쓰이는 것은 키거나 무음이거나 끄는 것이잖아요 간편하죠 우리가 회전도 굉장히 간편하게 바꿨습니다 저와 같다면 기기가 원하지 않을 때 회전되는 걸 싫어하실 텐데요 그렇다면 이 기능을 좋아하실 겁니다 지금 저는 회전 잠금 모드입니다 앱을 켜 보죠 그리고 기기를 회전시키면 새로운 회전 버튼이 탐색 바에 뜬 것을 볼 수 있습니다 그러면 그걸 탭해서 회전을 조절할 수 있습니다 꽤 멋진 기능이죠 지금까지 안드로이드 P에서의 사용자 경험을 간편화시킨 방법들에 대해 빠르게 훓어봤습니다 아직 많이 남아있어요 작업 분석 재설계부터 더 나은 스크린샷이나 개선된 알림 관리 등등 말이죠 알림 관리 말이 나왔으니 말인데 우리는 여러분이 원하신다면 더 많은 통제권을 드리고 싶습니다 피차이CEO가 이전에 암시한 디지털 세상과 현실 세상을 쉽게 이동할 수 있게 하겠다는 개념에서 중요한 부분입니다 이 중요한 영역과 우리의 세 번째 테마를 좀 더 자세히 알아보기 위해 사미르에게 마이크를 넘기겠습니다 감사합니다 모두들 안녕하세요! 최근에 가족과 휴가를 다녀왔는데 부인이 제 휴대폰을 봐도 되냐고 물었습니다 호텔 방에 들어서자마자요 저에게서 휴대폰을 가져가서 호텔 금고로 걸어가더니 안에 넣고 잠가버리더군요 그리고 돌아서서 제 두 눈을 보며 말했습니다 "칠일 뒤에 우리가 집으로 돌아갈 때 다시 줄게" 와! 전 충격을 받았죠 살짝 화가 나기도 했습니다 하지만 몇 시간이 지나자 근사한 일이 일어났습니다 휴대폰에서 오는 방해가 없어지자 제가 실제로 세상과 떨어져서 현재에 충실해질 수 있었고 멋있는 가족 휴가를 즐길 수 있었죠 저에게만 해당되는 일은 아닙니다 우리 팀은 기술과의 적절한 균형을 찾으려는 사람들의 이야기를 많이 들어왔습니다 피차이CEO에게서 들으셨 듯이 디지털 웰빙을 돕는 것이 어느 때보다 중요한 시기입니다 사람들은 휴대폰을 사용하는 시간이 정말 유용한 시간이라고 말하곤 합니다 하지만 가끔씩은 다른 일을 하면서 시간을 보내고 싶다고 하죠 사실 우리는 70%가 넘는 사람들이 이 균형을 맞추기 위해 도움을 필요로 한다는 것을 발견했습니다 그래서 열심히 연구한 끝에 안드로이드에 주요 능력을 더했습니다 사람들이 원하는 기술과의 균형 찾기에 도움을 주는 능력이죠 우리가 첫 번째로 주목한 것은 여러분의 습관을 이해하는 데 도움을 주는 것입니다 안드로이드 P는 대시보드를 통해 여러분이 기기에서 어떻게 시간을 보내는 지 보여줍니다 아까 보셨다시피 어떤 앱에서 얼마나 시간을 보내는지 오늘 하루 얼마나 자주 기기를 열었는지 그리고 알림을 얼마나 많이 받았는지 같은 것들이죠 이런 것들 중 무엇이든지 한 층 더 분석해 볼 수 있습니다 예를 들어보겠습니다 제 토요일 G메일 데이터입니다 이걸 보면 제가 주말동안 이메일을 꼭 봤어야 했는지 의문이 들긴 하네요 그게 대시보드가 있는 이유니까요 언제 사용하는 지는 이를 이해하는데 중요하지만 앱에서 뭘 사용하는 지도 못지 않게 중요하죠 TV를 보는 것과 같아요 기나긴 하루 끝에 좋아하는 쇼를 보는 건 꽤 기분 좋은 일이잖아요 하지만 교양 방송을 보는 건 왜 내가 다른 걸 하지 않았을까 의문이 들게 하죠 많은 개발자들이 이 개념을 '의미있는 일'이라고 부릅니다 많은 개발자들과 가깝게 일하면서 사람들이 건강한 방식으로 기술을 사용하게 돕자는 목표를 공유했습니다 그래서 안드로이드 P에서는 개발자들이 좀 더 세밀하게 앱에서 쓰는 시간을 분석해서 새로운 대시보드를 만들었습니다 예를 들어보겠습니다 유튜브는 딥 링크를 추가해서 모바일과 데스크탑을 통합한 총 감상 시간과 피차이CEO가 이전에 언급했던 유용한 도구들을 이용할 수 있게 할 겁니다 이해하는 건 좋은 시작이죠 하지만 안드로이드 P는 여러분에게 통제권을 줍니다 어떻게 그리고 언제 휴대폰을 쓸 지 여러분이 관리할 수 있게 돕습니다 좋아하는 앱이 있으시겠죠 하지만 여러분이 그 앱에 쓰는 시간은 느끼시는 것보다 훨씬 많습니다 안드로이드 P는 앱에서 쓸 시간을 제한할 수 있고 그 제한이 다가오면 여러분에게 살짝 알려줍니다 다른 걸 할 시간이라구요 그리고 남은 하루 동안 그 앱 아이콘은 비활성화되어 여러분의 목표를 상기시켜 줍니다 사람들이 말했던 또 다른 것은 참석한 식사자리나 회의에 완전히 집중하기가 어렵다는 겁니다 기기가 보여주는 알림이 방해가 되지만 거부하기 힘들다는 거죠 그렇죠? 다들 경험 있으시잖아요 그래서 우리가 만든 개선사항은 방해금지 모드입니다 전화나 문자뿐 아니라 시각적인 방해를 하는 화면 팝업도 없애줍니다 방해금지 모드 사용을 더 간편하게 하기 위해 새로운 제스처를 만들었습니다 애정을 담아 쉿이라고 이름지었죠 만약 휴대폰을 탁자에 뒤집어두면 자동으로 방해금지 모드에 들어갑니다 현재에 집중하고 핑 소리나 진동, 다른 방해가 없게요 당연히 응급상황을 대비해서 우리 삶의 주요 인물들의 연락은 받고 싶잖아요 배우자나 아이 학교같은 곳이요 안드로이드 P가 연락처 목록을 만들어드립니다 언제나 전화가 울려서 방해금지 모드에도 금지되지 않는 연락처들이죠 마지막으로 많은 사람들이 보통 잠자리에 들기 전에 휴대폰을 확인한다는 이야기를 들었습니다 그러면 알아차리기도 전에 한 두시간이 금방 지나가버리죠 솔직히 저도 최소한 일주일에 한 번은 그렇습니다 숙면을 취하는 건 중요하잖아요 기술은 그걸 도와줘야지 방해해서는 안 됩니다 그래서 와인드 다운 모드를 만들었습니다 구글 어시스턴트에게 잠 잘 시간을 말해놓으면 그 시간이 되었을 때 방해금지 모드로 바뀝니다 화면도 흑백 모드로 바뀌게 됩니다 뇌에 훨씬 적은 자극을 주죠 그리고 여러분이 휴대폰을 내려놓는 데 도움을 줄 겁니다 간단한 아이디어지만 컬러 TV 이전으로 돌아간 앱들을 보면서 제가 얼마나 빨리 휴대폰을 내려놓는 지 보면 놀라운 일이죠 걱정 마세요 아침에 일어나면 색은 다시 돌아옵니다 지금까지 디지털 웰빙과 관련한 기능을 몇 개 훑어 봤습니다 안드로이드 P는 이번 가을에 구글 픽셀과 함께 나올 예정입니다 디지털 웰빙은 우리에게 장기 테마가 될 겁니다 앞으로도 많이 기대해 주세요 지능, 단순함, 디지털 웰빙이라는 데이브와 제가 말한 세 가지 테마 뿐만 아니라 말 그대로 수백개의 개선사항들이 다가오는 안드로이드 P에서 보여질 겁니다 특히 플랫폼에 더한 보안 개선이 제일 기대되네요 그것에 대해서는 목요일에 열리는 안드로이드 보안 세션에서 자세히 알게 되실 겁니다 여러분의 가장 큰 의문은 '다 좋아' '근데 이걸 내가 어떻게 해 볼 수 있지?'일 겁니다 그래서 오늘 안드로이드 P 베타 버전이 발표됩니다 안드로이드 오레오에서 한 노력으로 OS 업그레이드를 쉽게 할 수 있어서 안드로이드 P 베타 버전은 구글 픽셀에서 이용 가능합니다 또한 일곱 개의 제조사 주력 기기에서도 오늘부터 이용 가능해질 겁니다 이 링크에 가셔서 여러분의 기기에 베타 버전을 받는 법을 알아 보시고 우리에게 여러분의 생각을 알려주시기 바랍니다 그럼 안드로이드의 새로운 것들 소개를 마치고 지도에 대해 얘기할 수 있게 젠을 소개하겠습니다 감사합니다 지도는 우리를 안내하고 연결시킵니다 구글은 그들이 한 번도 가보지 않은 곳의 지도를 만듭니다 그것이 어디이든 모든 사람들을 위해 덕분에 나이지리아가 변화했고 여러분도 여기에 함께 할 수 있습니다 목적지에 대한 지식으로 무장할 수 있다는 것은 당신도 다른 사람들처럼 목적지에 다다를 수 있다는 뜻입니다 두 번의 지진이 연속적으로 멕시코 시티를 강타했습니다 구글 지도가 이런 응급상황에 대처할 수 있게 도와줬죠 허리케인이 휴스턴을 섬으로 만들고 길은 수시로 바뀌었습니다 우리는 "구글이 있어서 다행이다"라고 계속 말했습니다 없었으면 우리가 뭘 할 수 있었을까요? 정말 멋진 일인 것 같아요 사람들이 좋아하는 일을 할 수 있게 그리고 해야 할 일을 할 수 있게 그들을 도와준다는 것은요 구글 지도 책임자 젠 피츠패트릭 기술을 만드는 것은 현실의 사람들의 일상을 돕기 위해서입니다 이것이 구글이 누구이고 무엇에 주력하는지를 결정하는 지에 있어서 처음부터 주안점이었습니다 최근 AI과 컴퓨터 비전의 발전은 우리의 오랜 상품들에도 극적인 진전을 가져왔습니다 구글 지도같은 상품이죠 또한 새로운 상품을 만드는 데도 도움을 줬는데 구글 렌즈같은 상품입니다 구글 지도부터 시작해봅시다 지도는 모두를 돕기 위해 만들어졌습니다 세계 어느 곳에 있든 상관없이요 우리는 220개의 국가와 영토를 지도화하고 수억개의 회사와 장소들을 지도에 표시했습니다 그 작업을 하면서 십억이 넘는 사람들에게 길을 잃어버리지 않고 세계를 여행할 수 있다는 자신감을 심어주었습니다 하지만 아직 끝은 멀었습니다 우리는 지도를 좀 더 똑똑하고 좀 더 상세하게 하려고 노력했는데 AI의 발전은 이를 가속화시켜줬습니다 이제는 거리 뷰와 위성 사진에서 새로운 주소, 회사, 건물들을 자동으로 추출하여 지도에 직접 추가할 수 있습니다 정식 주소가 없는 시골이나 여기 라고스처럼 빠르게 변하는 도시에서는 중요한 일이죠 지난 몇 년 동안 말 그대로 지도를 아예 바꿔야만 했어요 안녕하세요 나이지리아 만약 새로운 사업을 시작하시려고 한다면 얼마나 붐비는지 대기 시간이 어느 정도인지 심지어 사람들이 얼마나 오래 머무는지까지 알 수 있습니다 나가기 전에 주차가 쉬울지 어려울지를 알려주고 주차 공간을 찾는 데 도움을 줄 수도 있죠 이제 교통수단에 따라서 다른 길을 안내할 수 있습니다 오토바이를 타는지 차를 운전하는지에 따라서요 각 교통수단의 속도를 이해함으로써 모두에게 더 정확한 교통 예측를 해 줄 수 있게 됐죠 이건 지도가 할 수 있는 것의 겉핥기일 뿐입니다 원래 우리가 지도를 설계한 것은 여러분이 스스로의 위치를 파악하고 목적지로 가는데 도움을 주기 위해서였습니다 하지만 지난 몇 년간 사용자들이 지도에 점점 더 많은 것을 요구했습니다 그들 주변의 세상에 대해 점점 더 어려운 질문들을 물어왔죠 그리고 더 많은 일을 하려고 했습니다 오늘날 우리 사용자들은 목적지로 가는 최단거리 뿐만 아니라 주변에는 무슨 일이 있는지 새로운 장소는 어떤지 그리고 현지인이 자주 가는 곳이 어디인지 같은 것까지 궁금해합니다 세상은 신나는 일들로 가득합니다 스포츠 바에서 좋아하는 팀을 응원하거나 동네 식당에서 편안하게 친구나 가족과 저녁을 먹는 일들이죠 세상이 제공하는 일들을 여러분이 쉽게 알아보고 경험할 수 있도록 해 주고 싶습니다 구글 지도를 업데이트하면서 여러분이 관심 가지는 지역에서 새로운 것이나 유행을 계속 알 수 있게 하도록 열심히 노력했습니다 여러분에게 최적화된 장소를 상황과 관심사에 맞게 찾아드립니다 어떤 모습일지 예시들을 보여드릴텐데 소피아의 도움을 좀 받아보겠습니다 첫 번째, 포 유라는 탭을 추가했습니다 여러분이 관심 가지는 동네에 관해 알아 둘 만한 것들을 알려주도록 설계되었습니다 새로 개장하는 곳이나 지금 유행하는 것들 그리고 맞춤형 추천장소 같은 거요 여기 보시면 저한테 주변에 막 개장한 카페를 알려주네요 스크롤을 내리면 이번 주에 인기가 많은 식당 목록이 보이네요 굉장히 유용하죠 아무 힘을 기울이지 않고도 지도가 일상에서 벗어나 새로운 것을 시도하도록 자극하는 아이디어를 주니까요 하지만 이 장소가 저에게 맞다는 걸 어떻게 알 수 있을까요? 좋은 평가를 받은 장소들을 둘러보면서 내가 분명히 좋아할 만하고 꽤 괜찮은 것들이 많겠다고 생각했지만 정확히 어떤 게 좋은지 말할 수 없었던 경험이 있지 않나요? 우리가 유어 매치라는 점수를 만들었습니다 여러분이 좋아할 만한 장소를 찾는 데 도움을 주기 위해서죠 유어 매치는 머신 러닝을 사용하여 내가 추가해 놓은 정보들과 구글이 알고 있는 수억개의 장소들을 결합해줍니다 내가 평가한 식당들, 내가 좋아한 요리들, 내가 가 봤던 장소들 같은 정보죠 매치 숫자를 클릭하면 왜 당신에게 이것을 추천하는지 그 이유를 알려줍니다 당신만을 위한 장소 점수인 거죠 초기 테스터들이 정말 좋다고 평가했습니다 이제 여러분은 최고의 장소를 자신감 있게 고를 수 있습니다 미리 계획을 했든 그냥 떠나서 바로 결정을 해야 하든 상관 없이요 소피아 고마워요 포 유 탭과 유어 매치 점수는 여러분이 잘 알고 있게 해 주고 자신감 있게 장소를 선택하게 해 주는 방법의 좋은 예시입니다 사용자들에게서 자주 듣는 또 다른 불만사항은 다른 사람과 계획을 짜는 것이 진짜 힘들다는 거죠 그래서 함께 장소를 고르기 쉽도록 만들었습니다 쓰는 방법은 이렇습니다 최종 명단에 올리고 싶은 어떤 장소든 길게 누릅니다 저는 언제나 라멘을 추천하지만 제 친구들은 각자 다른 의견이 있다는 것을 알고 있습니다 그래서 선택권을 주기 위해 다른 선택지들을 추가하죠 좋아하는 장소들을 충분히 더했다면 목록을 친구들과 공유해서 친구들 의견을 더합니다 몇 번 탭하기만 하면 쉽게 공유할 수 있슴니다 여러분이 선호하는 어떤 플랫폼에서든 가능하죠 그리고 나면 친구들이 원하는 장소를 추가할 수도 있고 한 번의 간단한 클릭으로 투표하여 모임 장소를 빠르게 결정할 수 있습니다 이제는 링크들을 복사하고 붙여넣기 하는 대신에 서로 문자를 주고 받으면서 결정을 빠르고 쉽고 재미있게 내릴 수 있습니다 이건 새로운 지도 기능들을 일별한 것 뿐입니다 새로운 지도는 이번 여름 늦게 안드로이드와 iOS 모두에서 출시됩니다 우리는 이것이 주변 지역부터 머나먼 세계의 구석까지에서 여러분이 계속 더 나은 결정을 내리고 새로운 시각으로 세상을 경험하는 데 도움을 주기 위해 지도가 할 수 있는 일들의 시작점일 뿐이라고 생각합니다 이런 발견은 소규모 가게들이 없었다면 불가능했을 겁니다 왜냐하면 사람들이 새로운 장소를 발견하도록 도와줄 때 새로운 소비자들이 그 지역 사업을 발견하는 것도 돕고 싶거든요 주변 지역의 빵집이나 구석진 곳의 이발소같은 가게입니다 이런 가게들은 우리 공동체의 근간입니다 진심으로 그들이 구글과 함께 성공할 수 있게 도울 것을 약속합니다 매달 우리는 사용자들을 주위의 가게들과 90억 번이 넘게 연결해줍니다 10억 번의 전화와 30억 번의 길 찾기 요청을 포함한 숫자입니다 지난 몇 달간 우리는 심지어 몇몇 도구를 더했습니다 지역의 가게들이 의미 있는 방식으로 소비자들과 의사소통하고 관계를 맺게 해 주는 도구입니다 당신이 좋아하는 가게들의 이벤트나 제안들에 대한 일일 포스트를 볼 수 있습니다 조만간 그것에서 더 업데이트되어 새로운 포 유의 흐름을 볼 수 있을 겁니다 여러분이 준비가 되었다면 간편하게 한 번의 클릭으로 예약을 하거나 주문을 할 수 있습니다 기술이 모두에게 기회를 주는 것을 보면 언제나 고무됩니다 지난 13년간 우리가 모든 길, 모든 건물, 모든 가게들을 지도화하는데 투자한 이유는 이게 중요한 일이기 때문입니다 우리가 세계 지도를 만들었을 때, 지역 사회는 살아 숨쉬고 우리가 절대 불가능하리라 생각했던 장소들에서의 기회가 생겼습니다 컴퓨팅이 진화함에 따라 우리는 새롭게 생각하도록 계속 스스로 도전해왔습니다 현실에서 여러분의 일을 돕기 위해서였습니다 무대로 아파르나를 모셔서 우리가 구글 지도나 다른 곳에서 어떤 일을 하는지 알려드리겠습니다 구글 VR·AR 부사장 아파르나 첸나프라가다 우리 스마트폰의 카메라는 우리를 주변 세상과 굉장히 직접적으로 연결해줍니다 순간을 저장하고, 추억을 포착하고, 의사소통하게 도와줍니다 하지만 피차이CEO가 말했듯이 컴퓨터 비전과 AI의 진보에 따라 우리는 질문하게 되었습니다 "카메라가 더 많은 것을 할 수 있다면 어떨까?" "카메라가 질문에 대답하는 데 도움을 줄 수 있을까?" 그 질문들은 "어디로 가는 거지?"나 "내 앞에 뭐가 있지?"같은 거죠 익숙한 광경을 그려볼게요 당신은 지하철을 빠져나왔습니다 이미 약속시간이나 기술 회사 회의에 늦어버렸죠 종종 있는 일들이잖아요 그 때 휴대폰이 말하죠 '마켓가에서 남쪽으로 가세요' 그럼 어떻게 해야 하죠? 한 가지 문제는 어느 쪽이 남쪽인지 알 수 없다는 거죠 그러면 휴대폰을 내려다보고 지도상의 파란 점을 보죠 걸으면서 그 점이 옳은 방향으로 움직이는지 확인합니다 그렇지 않다면 반대 방향으로 걸어야죠 우리 모두 그런 적 있잖아요 그래서 우리는 자문했습니다 "카메라가 이걸 도와줄 수 있을까?" 우리 팀은 정말 열심히 작업했습니다 카메라와 컴퓨터 비전의 힘과 거리 뷰와 지도를 통합하여 걸어다니는 내비게이션을 재구상했습니다 구글 지도에서 보여질 모습을 한 번 보시죠 카메라를 켜면 여러분은 바로 어디에 있는지 알 수 있습니다 휴대폰과 싸울 필요가 없죠 지도상의 모든 정보나 거리 이름과 방향들은 여러분 바로 앞에 있을 겁니다 지도도 볼 수 있어서 계속 위치를 확인할 수 있죠 주변 장소들도 볼 수 있어서 주변에 뭐가 있는지 알 수 있죠 그리고 재미를 위해서 우리 팀이 유용한 가이드를 더하자는 아이디어를 냈어요 지금 보시는 거 같은 거죠 방향을 알려줄 겁니다 저기 지나가네요! 아주 멋있죠 이제 이런 경험들이 가능해졌지만 GPS 혼자서는 이것을 편집할 수 없습니다 그래서 우리는 VPS에서 작업을 해왔습니다 시각 위치 확인 서비스로 정확한 위치와 방향을 측정해줍니다 여기에서 주안점은 여러분이나 저나 익숙하지 않은 장소에서는 시각적인 랜드마크를 찾는다는 거죠 가게 앞이나 건물 정면 같은 걸요 그것과 같은 아이디어죠 VPS는 주변 환경의 시각적인 특징을 사용해서 같은 일을 합니다 정확히 어디 있는지 알려주고 정확히 어디로 가야 할 지 알려줘서 우리가 여러분을 돕게 해줍니다 아주 좋죠 우리가 지도에서 카메라를 이용해서 여러분을 도와주는 방법이었습니다 하지만 우리는 카메라가 여러분이 보는 것을 통해 더 많이 도울 수 있다고 생각했습니다 그게 바로 우리가 구글 렌즈 연구를 시작한 이유입니다 사람들은 이미 많은 답을 찾기 위해 구글 렌즈를 사용하고 있습니다 특히 질문이 말로는 설명하기 어려운 종류일 때는 더 그렇죠 '공원에서 본 그 귀여운 개는 뭐지?' 같은 질문에 대한 답입니다 래브라두들이죠 아니면 시카고에 있는 이 건물은 리글리 빌딩이고 높이는 130미터입니다 아니면 요새 제 9살 아들이 말하듯 할 수 있겠죠 "케빈 듀란트가 60명 넘게 서 있는 거랑 같네?" 오늘날의 렌즈는 구글 제품에서 사용할 수 있습니다 포토나 어시스턴트같은 제품이요 하지만 다음 주부터는 렌즈가 카메라 앱에 바로 삽입되어 픽셀이나 새로운 LG G7, 그리고 더 많은 기기들에서 사용 가능해질 겁니다 이렇게 하면 훨씬 더 쉽게 카메라로 바로 앞에 있는 것에 구글 렌즈를 사용할 수 있습니다 아주 많이 기대되네요 이와 비슷하게 비전은 컴퓨팅에 있어서 근본적인 변화입니다 많은 시간이 필요로하겠지만 우리는 이미 많은 진보를 이루었습니다 그래서 오늘 제가 구글 렌즈의 세 가지 새로운 기능을 보여드리겠습니다 더 많은 유형의 질문에 더 많은 답을 더 빠르게 줄 수 있을 겁니다 한 번 보실까요? 좋아요! 자, 첫 번째입니다 렌즈가 단어를 인식하고 이해할 수 있습니다 단어는 어디에나 있죠 생각해보면 교통 표지판, 포스터 식당 메뉴, 명함같은 것도요 하지만 스마트 텍스트 선택과 함께라면 보이는 단어들을 필요로 하는 답과 행동으로 이어줄 수 있죠 그래서 복사하고 붙여넣기를 현실에서 바로 휴대폰으로 할 수 있죠 바로 이렇게요 아니면 이걸 보고 있다고 합시다 단어가 가득한 페이지들을 답이 가득한 페이지로 바꿀 수 있죠 예를 들어서 식당 메뉴를 보다가 빠르게 탭을 해주면 모든 요리들을 알아낼 수 있습니다 어떻게 생겼고 어떤 게 들어가는지 같은 걸요 그건 그렇고 채식주의자로서 라따뚜이에 주키니와 토마토만 들어간다는 걸 알게 되서 좋더군요 진짜 좋죠 이런 예시들을 통해서 렌즈가 시각적으로 기호나 글자의 모양을 이해할뿐만 아니라 단어 뒤의 문맥을 이해하려고 노력한다는 것을 알 수 있습니다 거기서 바로 스콧이 말했던 모든 언어가 이해된다는 것이 진짜 도움이 되는 거죠 제가 다음으로 말할 기능은 스타일 매치라는 기능입니다 아이디어는 이렇죠 가끔 여러분이 하는 질문은 "오, 이 정확한 사물은 뭐지?"보다는 "이런 게 뭐지?"에 가깝습니다 친구 집에 있는데 이 유행하는 램프를 봤습니다 그리고 이 스타일과 비슷한 것들을 알고 싶습니다 이제 렌즈가 여러분을 도와줄 수 있습니다 시선을 끄는 옷을 봤다면 그저 카메라를 켜고 어떤 아이템이든 클릭하세요 그러면 당연히 구체적인 정보를 찾아낼 수 있을 겁니다 그 특정 물건에 대한 후기같은 거죠 하지만 그 외에도 그 스타일과 비슷한 모든 것들을 보고 찾을 수 있습니다 두 가지 부분이 있습니다 렌즈는 수백만 개의 물건을 검색해야만 하죠 하지만 우리는 검색을 어떻게 하는지 알고 있잖아요 하지만 다른 부분은 사실 복잡한 것들입니다 질감이나 모양, 크기, 각도, 조명같은 것들이 다를 수 있잖아요 기술적으로 어려운 문제입니다 하지만 우리는 기쁘게도 이 부분에서 많은 진보를 이루었습니다 이제 제가 오늘 말할 마지막은 어떻게 렌즈가 실시간으로 작동하게 만들었냐는 겁니다 스타일 매치의 예시에서 보셨다시피 카메라를 켜서 보기 시작하면 즉각적으로 렌즈가 모든 정보를 주도적으로 보여줍니다 심지어 여러분이 보는 것들의 정보를 고정시켜 놓기도 합니다 이런 것들은, 수십억 개의 단어, 구문, 장소, 물건들을 샅샅이 조사하는 것들은 여러분이 필요로 하는 것을 실시간으로 제공하기 위한 것으로 머신 러닝이 없다면 불가능하죠 우리는 기기의 지능만이 아니라 클라우드 TPU의 힘까지 두 개 모두를 사용합니다 클라우드 TPU는 작년 개발자 회의에서 발표한 것으로 이를 완성했죠 정말 신나네요 시간이 지나면서 우리가 하고 싶은 것은 모든 것들 위에 직접적으로 생생한 결과를 오버레이하는 것입니다 가게 앞이나 거리 표지판, 콘서트 포스터같은 것들 위에요 그래서 휴대폰을 찰리 푸스의 콘서트 포스터에 그저 대기만 하면 뮤직 비디오가 바로 재생되는 것처럼 그런 일들을 하고 싶어요 카메라가 단순히 질문의 대답을 해주는 것뿐만 아니라 질문이 있는 곳에 대답을 넣어주는 예시입니다 매우 흥미로운 일이죠 스마트 텍스트 선택 스타일 매치, 실시간 결과들이 몇 주 안에 렌즈에서 출시됩니다 계속 지켜봐 주세요 구글이 어떻게 카메라에 AI를 적용시켜 여러분 주변의 일을 해결할 지에 대한 예시들이었습니다 AI와 지도 제작, 컴퓨터 비전을 현실의 문제 해결에 적용시키려면 자율주행차량보다 더 현실적인 것은 없을 겁니다 여기에 대해 말씀드리기 위해 웨이모의 CEO인 존 크라프시크씨를 모시겠습니다 감사합니다 모두들 안녕하세요! 웨이모CEO 존 크라프시크 오늘 구글의 친구들을 무대에서 만나게 되어 너무 즐겁네요 저는 이번에 쇼어라인에 처음으로 오게 됐지만 우리 자율주행차는 처음이 아닙니다 2009년에 이 씨어터 바로 바깥 주차장에서 처음으로 자율주행기술의 시험들이 이루어졌습니다 구글의 기술자들, 로봇 연구가들과 연구자들이 있는 이 곳에서 차들이 스스로 운전할 수 있다는 것을 실제로 검증하기 위한 말도 안 되는 미션이 시작되었습니다 그 당시에는 대부분의 사람들이 자율주행차에 대해서 공상 과학일 뿐이라고 생각했습니다 그러나 이 헌신적인 몽상가들은 자율주행차량이 모두에게 교통을 더욱 안전하고 간편하고 접근 가능하게 할 것을 믿었습니다 그렇게 구글의 자율주행차량 프로젝트가 시작되었습니다 빠르게 2018년으로 돌아와서 구글의 자율주행차량 프로젝트는 이제 웨이모라고 불리는 독립적인 알파벳의 자회사입니다 손보고 연구하는 것을 넘어서 발전해왔습니다 오늘날 웨이모는 전세계에서 유일하게 공공 도로에서 운전석에 아무도 없이 운전하는 완전한 자율주행차량 군단을 갖췄습니다 애리조나주 피닉스의 사람들은 이미 완전한 자율주행을 경험해 봤습니다 한 번 보시죠 자율주행 첫 날입니다 준비됐나요? 갑시다! 기분이 좀 이상하네요 이것이 미래입니다 저 여자분을 보세요 "아무도 운전 안 하고 있는데?" 알고 있었어! 이걸 기다렸지 아무도 운전을 안 한다는 걸 전혀 몰랐어요 요! 자동차! 셀카찍자! 자동차야, 고마워 자동차야, 고마워 아주 멋있죠 여기 나오신 분들은 웨이모의 초기 탑승 프로그램 참가자들입니다 일상에서 우리 자율주행차를 사용한 일반인들이시죠 작년 한 해 동안 이 초기 탑승자들과 얘기를 나눌 기회가 있었습니다 그 분들의 이야기는 굉장히 고무적인 것들이었습니다 초기 탑승자들 중 한 명인 네하는 어렸던 십대 시절에 비극적인 사고를 목격했습니다 네하가 운전면허를 따기 무섭게 만들었습니다 하지만 이제 네하는 매일 웨이모를 타고 출근합니다 짐과 바바라는 더 이상 늙어서 돌아다닐 힘이 없을 때를 걱정할 필요가 없습니다 그리고 잭슨 가족이 있습니다 웨이모는 빽빽한 잭슨 가족의 스케쥴을 진행시켜 줍니다 카일라와 요셉을 학교 통학과 친구들과의 연습이나 만남에 데려다줍니다 이제 공상 과학이 아니죠 자율주행기술을 만들 때 우리가 목표로 한 사람들이 바로 이런 사람들입니다 2018년에 들어서 자율주행차량은 벌써 사람들의 삶과 행동을 바꿨습니다 피닉스가 웨이모의 운전자 없는 교통 서비스의 첫 번째 무대가 되어 올 해 하반기에 출시될 것입니다 조만간 누구나 우리 앱을 사용해서 웨이모를 부를 수 있게 될 겁니다 완전한 자율주행차량이 멈춰 서면 아무도 운전석에 없지만 목적지까지 데려다줄 겁니다 이건 그저 시작일 뿐이죠 왜냐하면 웨이모에서 우리는 단지 더 나은 차를 만드는 것이 아니라 더 나은 운전자를 만드는 것이기 때문입니다 그리고 그 운전자는 모든 앱에서 사용될 수 있을 것입니다 택시 요청, 물류, 개인 차량이나 대중 교통수단과 사람들을 연결시켜주는 데까지도요 우리의 기술은 이 모든 다른 산업들에서 사용 가능하다고 생각합니다 많은 회사들과 동업하여 자율주행의 미래가 모두의 현실이 되도록 하겠습니다 그리고 이 미래는 우리가 AI에 했던 투자와 AI의 약진으로 가능해졌습니다 옛날을 돌아보면 구글은 아마도 그 당시에 이 세상에서 유일하게 AI와 자율주행기술에 동시에 투자한 기업일 겁니다 구글이 음성 인식, 컴퓨터 비전, 이미지 검색 등을 통해서 머신 러닝에 주요 진보를 만들기 시작했을 때 웨이모는 그 수혜를 받을 특별한 위치에 자리했습니다 예를 들면, 2013년에 우리는 보행자 탐지의 돌파구가 될만한 기술을 찾고 있었습니다 다행스럽게도 구글은 딥 러닝이라는 새로운 기술을 이미 효율적으로 사용하고 있었습니다 딥 러닝은 머신 러닝의 한 종류로 다양한 층에 신경망을 만들어 좀 더 복잡한 문제를 해결할 수 있게 합니다 그래서 우리의 자율주행 기술자들은 구글 브레인 팀의 연구원들과 팀을 이루어서 겨우 몇 달만에 보행자 탐지의 오류 발생률을 100배 줄였습니다 네 100%가 아니라 100배요 그리고 오늘날

감사합니다 오늘날 AI는 자율주행 시스템에서 더욱 큰 역할을 하고 있습니다 우리의 능력을 개방하여 진정한 자율주행을 만들어냈습니다 머신 러닝이 현재 길거리에서 보이는 안전하고 능숙한 웨이모의 운전자들을 어떻게 머신 러닝이 만들어냈는지 더 자세히 알려드리기 위해 드미트리를 소개하겠습니다 감사합니다 웨이모 자율주행 기술 총괄 드미트리 돌고프 좋은 아침입니다 이 자리에 서게 되어 영광입니다 웨이모에서 AI는 우리 시스템의 모든 영역을 관장합니다 인지에서 예측으로, 의사 결정으로, 지도 제작으로 그리고 더 많은 것들까지도요 유능하고 안전한 운전자가 되기 위해서는 우리 차량은 주변 세상을 의미론적으로 깊게 이해해야만 합니다 우리 차량은 물체를 이해하고 분류해야만 하고 물체의 움직임을 분석하고 그 의도를 판단하고 앞으로 뭘 할 것인지 예측할 수 있어야 합니다 각각의 물체들이 다른 것들과 어떻게 상호작용할 지 이해해야만 합니다 그리고 마지막으로 우리 차량은 모든 정보를 이용해서 안전하고 예측가능한 방식으로 작동해야만 합니다 그래서 말할 필요도 없이 자율주행차량을 만드는 데는 많은 것들이 요구됩니다 오늘 제가 말 할 두 영역은 AI가 큰 영향을 준 영역으로 인지와 예측입니다 첫 번째, 인지입니다 물체를 탐지하고 분류하는 건 운전에 있어서 중요한 부분입니다 특히 보행자들은 특별한 시련을 만들어주는데 다양한 형태와 자세, 크기로 나타나기 때문입니다 예를 들어서 건설업 종사자가 맨홀 밖을 쳐다보고 있습니다 몸의 대부분은 보이지 않겠죠 여기는 길을 지나는 보행자가 나무 판자에 가려져있네요 그리고 여기를 보시면 보행자가 공룡 옷을 입고 있네요 우리는 차에게 쥬라기 시대에 대해서 가르쳐주지 않았습니다 하지만 여전히 차는 그것들을 올바르게 분류할 수 있습니다 이 보행자들을 탐지하고 분류할 수 있는 이유는 딥 넷을 적용하여 센서 데이터를 통합했기 때문입니다 전통적으로 컴퓨터 비전에서 신경망은 카메라 이미지와 영상에서만 이용되었습니다 하지만 우리 차는 카메라보다 훨씬 많이 가지고 있죠 물체의 형태와 거리를 짐작할 수 있는 레이저와 물체의 속도를 계산할 수 있는 레이더도 장착되어 있죠 머신 러닝을 이 통합된 센서 데이터에 적용시킴으로써 어떤 형태의 보행자든 실시간으로 정확하게 탐지할 수 있습니다 머신 러닝이 웨이모를 위해 놀랍게 큰 일을 해 준 두 번째 영역은 도로 위의 사람이 어떤 행동을 할 지 예측하는 것입니다 사람들은 보통 우리의 예측대로 행동하지만 가끔씩은 그렇지 않습니다 여기 빨간불에 달리는 차의 예시를 보시죠 불행스럽게도 우리는 이런 일을 생각보다 자주 봅니다 이것을 자동차의 시점에서 분석해보겠습니다 차가 교차로에서 직진을 하려고 합니다 분명히 초록불이죠 그리고 교차로는 빨간불로 멈춰 있네요 하지만 교차점에 막 진입하는 순간 오른쪽에서 빠르게 다가오는 차량이 보이네요 우리 모델은 이것을 감속해야 할 차량의 이상 행동이라고 이해했습니다 차량이 빨간 불에도 계속 달릴 것으로 예측하고 우선 속도를 줄였습니다 여기 붉은 장애물에서요 빨간불에서도 달리는 차량에게 우리 앞으로 지나갈 공간을 준 거죠 다른 차량을 치는 걸 막기는 거의 불가능해 보이지만요 이런 종류의 변칙을 탐지할 수 있는 건 우리 ML 모델을 다양한 예시로 훈련시켜왔기 때문입니다 현재 우리 군단은 공공 도로에서 6백만 마일이 넘게 자율주행을 해봤습니다 실제 상황을 수억 개 이상 지켜볼 수 있었던 거죠 그런 관점에서 볼 때 우리는 매일 보통 미국인의 일 년 주행량보다 더 많이 운전을 한다는 거죠 그저 좋은 알고리즘보다는 더 많은 것이 자율주행차량에 필요합니다 굉장히 튼튼한 기반 시설도 필요하죠 웨이모에서는 텐서플로우 생태계와 TPU를 포함한 구글 데이터 센터를 이용하여 신경망을 훈련시켰습니다 이제 TPU를 이용해서 우리는 신경망을 15배 더 효율적으로 훈련시킬 수 있습니다 또한 이 튼튼한 기반시설을 이용하여 시뮬레이션에서 우리 모델을 입증했습니다 이 가상 세계에서 우리는 매일매일 이만 오천대의 차와 동일하게 주행을 했습니다 다하면 시뮬레이션에서 50억 마일 넘게 주행을 했죠 이 정도의 규모를 통해 우리 모델의 훈련과 입증 모두에서 빠르고 효율적으로 차량에 새 기술을 가르칠 수 있습니다 우리가 다루기 시작한 새 기술은 어려운 날씨에서의 자율주행입니다 여기 보시는 것처럼 눈이 오는 것 같은 날씨에서요 그리고 오늘 최초로 눈 속에서 자율주행하는 우리 차량이 어떤 모습인지 그 비밀에 가려진 모습을 보여드리겠습니다 이게 어떤 필터도 거치지 않았을 때 자율주행차가 보는 장면입니다 눈보라 속 주행은 어렵습니다 눈송이가 우리 센서에 많은 방해를 하기 때문이죠 하지만 머신 러닝을 이 데이터에 적용함으로써 우리 차량이 보는 것은 이런 모습입니다 우리는 분명하게 각 차량을 구분할 수 있습니다 센서가 방해되는 데도 불구하고요 이런 진보된 능력들을 빨리 공개할수록 우리 자율주행차량들이 더 빠르게 전세계의 더 많은 도시들과 여러분 인근 도시에 보급될 겁니다 우리 자율주행차량이 더 많은 사람들에게 보급되고 도로가 모두에게 더 안전하고 쉽고 접근하기 편한 곳이 될 미래로 우리를 데려다줄 날이 기다려집니다 여러분 감사합니다 이제 젠을 다시 무대로 불러서 우리의 아침 세션을 마치도록 하겠습니다 드미트리 고마워요 AI가 언제나 새로운 방식으로 사람들을 돕는 일에 대해 알아볼 수 있어 좋았습니다 제가 구글에 기술 인턴으로 입사한 게 거의 19년 전이네요 첫 날 문을 열고 들어갔을 때부터 제가 항상 생각하는 것은 기술의 영역과 기술의 가능성 확장에 헌신할 것이었습니다 사람들의 실제 삶에 영향을 줄 제품들에 주력하는 것과 함께요 그리고 세월이 지나면서 저는 여러번 목격했습니다 어떻게 기술이 실제로 변화된 역할을 수행하는 지를요 검색이나 지도같은 제품 초기에서 구글 어시스턴트같은 새로운 영역으로 변화했죠 오늘날의 구글을 보면 그 초기의 가치가 여전히 살아 숨쉬고 있는 것을 볼 수 있습니다 우리는 계속해서 여러분과 함께 모두를 위한 제품과 중요한 제품을 만드는데 전념하겠습니다 우리 스스로의 목표를 더 높이고 책임감 있게 사회와 세상에 공헌하도록 지속적으로 포부를 품겠습니다 진짜 모두를 위한 제작을 하려면 다양한 관점들이 혼합되어야 합니다 그게 바로 우리가 올해 개발자 회의를 확대하여 더 많은 목소리들을 들으려고 한 이유입니다 남은 삼일간 추가 연설자들을 초대하여 디지털 웰빙 촉진에서부터 NGO의 미션 달성을 돕는 것까지 모든 분야에서 확장된 역할을 수행하는 기술에 대해서 모두 말해드리겠습니다 물론 그 뿐만 아니라 여러분이 개발자 회의에서 기대한 수백개의 기술 얘기도 있습니다 여러분이 즐기시고 배워가셨으면 좋겠습니다 2018년 개발자 회의에 오신 것을 환영합니다 부디 즐겨주세요 다음 며칠간 자극을 얻으셔서 모두를 위해 좋은 것을 만드는 일을 지속하시기를 바랍니다 감사합니다

Google Lens is moving into Camera App | AI in Camera at Google I/O 2018

우리 스마트 폰의 카메라들은 우리 주변의 세계와 매우 즉각적인 방법으로 순간을 저장하여 추억을 포착하고 의사 소통을 돕습니다 그러나 인공 지능과 컴퓨터 비전의 진보와 함께 당신은 해설자의 말을 들었습니다

카메라가 우리를 도울 수 있다면 무엇을 할 수 있는지 질문에 대한 대답은 어디에서와 같습니까? 또는 저 앞에있는 무엇이 저를 당신이 나가는 친밀한 그림을 그리게하십시오 이미 약속이나 기술 회사에 늦게 출근하는 지하철입니다 회의가 일어나면 전화가 마켓에서 남쪽으로 스트리트 그래서 당신은 한 가지 문제를 어떻게합니까 당신은 어떤 방법으로 남쪽인지 모릅니다 그래서 당신은 지도에서 파란색 점을보고있는 휴대 전화를 보면서 그것이 당신이 아니라면 같은 방향으로 움직이고 있는지보기 위해 걷기 시작합니다 그들 주위를 빙빙 돌며 우리는 모두 물었습니다 카메라가 우리 팀을 도울 수 있다면 우리 팀은 여기서 일하고 있습니다 카메라의 힘과 거리의 컴퓨터 비전을 결합하기가 정말 힘듭니다

둘러보기와 둘러보기를 다시 보면서지도를 볼 수 있습니다 Google지도에서와 같이 카메라를 열어보세요 당신은 즉시 당신이 어디에 있는지 즉시 알 수 있습니다 아니 전화와 함께 futzing지도에있는 모든 정보 거리 이름 바로 앞에있는 방향으로지도가 보입니다 그런 식으로 방향을 유지하면 가까운 장소를 볼 수있어 무엇이 있는지 볼 수 있습니다

우리 팀은 재미있게 놀기 위해 거기에 도움이되는 가이드가있어서 그녀가가는 길을 보여줄 수 있습니다 이런 종류의 경험을 가능하게 해주는 아주 멋지다 GPS만으로는 절단되지 않기 때문에 우리가 VPS 시각적 포지셔닝 시스템으로 정확한 위치를 추정하고 오리엔테이션은 여기에서 핵심 통찰력에 대해 생각하는 한 가지 방법은 당신과 똑같습니다 그리고 우리가 익숙하지 않은 장소에있을 때 시각적 랜드 마크를 찾고 있습니다 당신은 건물 앞면 등을 찾고 있습니다

그리고 그것은 똑같습니다 아이디어 VPS는 환경을 동일하게 사용하면 우리가 당신을 정확히 파악할 수 있습니다 당신이 아주 멋진 곳으로 가야 할 곳을 정확히 알려줍니다 우리가지도에서 당신을 도우려고 카메라를 어떻게 사용하는지는 우리가 생각할 수 있습니다 보신 내용으로 더 많은 일을 할 수 있도록 도와주세요

Google에서 Google에서 작업을 시작한 이유입니다 렌즈는 이제 사람들이 이미 모든 종류의 답변과 특히 질문을 단어로 설명하기 어려운 경우 labradoodle 또는이 건물에 공원에서 귀여운 강아지 시카고는 리글리 (Wrigley) 건물이며 높이가 425 피트이거나 아홉 살짜리 아들입니다 요즘은 60 개가 넘는 케빈 듀란트가 말합니다 현재는 렌즈가 보조 제품의 사진을 좋아하는 Google 제품의 기능이지만 다음 주부터는 렌즈가 픽셀에 카메라 애플 리케이션 새로운 LG 전자 g7과 훨씬 더 많은 장치가 이렇게하면 이미 당신 앞에있는 것들에 렌즈를 사용하는 것이 아주 쉽습니다 이 사진을 목소리처럼 보게되어 매우 기뻤던 카메라 비전은 우리를위한 컴퓨팅의 근본적인 변화이며 여러 해 우리는 이미 많은 진전을 이루고 있으므로 오늘 내가 보여줄 것이라고 생각했습니다

당신에게 더 많은 답변을 드릴 수있는 Google 렌즈의 세 가지 새로운 기능 더 많은 종류의 질문이 더 빨리 이루어져야합니다 괜찮아요 첫 번째 렌즈는 이제 단어가 어디에서나 인식되고 이해할 수 있습니다 당신은 그것에 대해 생각 트래픽 포스터 포스터 레스토랑 메뉴 명함하지만 지금은 똑똑한 텍스트 선택을 사용하면 볼 단어를 답변 및 조치가 필요하므로 복사 및 붙여 넣기와 같은 작업을 현실 세계를 바로 휴대 전화에 직접 들려주세요 아니면 당신이보고 있다고 말하려합니다

또는 단어 페이지에서 답변 페이지로 칠할 수 있습니다 예를 들어 레스토랑 메뉴를보고 모든 요리를 빠르게 알아볼 수 있습니다 그것은 무엇을 보이는 모든 성분 etcetera가 그런데있다 채식주의 자 알기 좋은 래따 요이 호박과 토마토는 정말 멋지다 이 예제 렌즈는 문자의 모양을 이해하는 것이 아닙니다 그리고 시각적으로 글자들은 실제로 그 의미를 얻으려고 노력하고 있습니다

이 단어 뒤에 나오는 문맥은 모든 언어 스캇 이야기에 대해 정말로 들었습니다 다음에 내가 이야기하고 싶은 기능은 스타일 매치라고하며 아이디어는 이쪽입니다 때로는 질문이 아니거나 질문 대신 그 정확한 것은 무엇입니까? 너는 네가 친구 집에서 너를 체크하고 있는거야 유행 찾고 램프와 당신은 그 스타일과 지금 일치하는 것들을 알고 싶다 렌즈가 당신을 도울 수 있거나 눈을 끈 옷을 볼 수 있다면 모든 항목을 카메라 탭으로 열어 특정 코스를 찾으십시오

특정 항목의 리뷰 등의 정보를 볼 수 있지만 모든 것을 둘러보고 그 스타일을 둘러보고 그 스타일에 두 부분이 있습니다 물론 렌즈는 수백만, 수백만 개의 항목을 검색해야합니다 하지만 우리는 그 검색을하는 방법을 알고 있지만 다른 부분은 실제로 크기가 서로 다른 텍스쳐 모양이 될 수있는 것들을 복잡하게 만든다 조명 조건 등 어려운 기술적 인 문제가 있지만 우리는 여기서 많은 진전이 있었고 정말 흥분했습니다 오늘 우리가 렌즈를 실시간으로 만드는 방법이 무엇인지 알려주고 싶습니다

스타일 일치 예제에서 보았 듯이 카메라를 열고 당신은 모든 정보를 사전에 렌즈 표면에서 볼 수 있습니다 즉시 정보를 보게됩니다 지금은 수십억 단어를 훑어보고있는 이런 종류의 문구는 실시간으로 물건을 배치하여 가능하지 않은 것을 제공합니다 기계 학습없이 우리는 장치 지능뿐만 아니라 둘 다 사용하고 있습니다 작년에 I / O에서 발표 한 클라우드 TP 사용의 힘으로 도청 이 작업을 정말 흥분되게하십시오

시간이 지남에 따라 우리가 원하는 것은 실제로 가게 앞 거리 표지판과 같은 것들 위에 실제 결과물을 직접 오버레이 또는 콘서트 포스터를 사용하면 휴대 전화를 콘서트 포스터에서 가리킬 수 있습니다 찰리 퍼트와 뮤직 비디오는 마치 카메라가 질문에 대답하는 것이 아니라 퍼팅하는 방법의 예 질문이있는 곳의 답변과 매우 흥미 진진한 스마트 텍스트 선택 스타일이 다음 몇 주 내에 모두 렌즈에 도달하는 실시간 결과와 일치합니다 그들을 확인해주세요

AI Adventures: art, science, and tools of machine learning (Google I/O ’18)

[음악 재생] YUFENG GUO : 아침 내 이름은 Yufeng Guo이고 YouTube에서 비디오 시리즈를 진행합니다

인공 지능 어드벤처 (AI Adventures)라는 곳에서는 예술, 과학, 기계 학습 도구 저는 오늘 그곳에있는 작은 조각을 직접 가져오고 싶었습니다 그럼 함께 인공 지능 모험을 떠나 봅시다 이 세션의 목적을 위해, 먼저 기계 학습에 대한 짧은 정의부터 시작해 보겠습니다 그것을 사용하여 워크 플로우를 구축하십시오

도구에 들어가십시오 우리는 오늘 그것을 사용하여 도움을 줄 것입니다 우리는 기계 학습 문제를 어떻게 해결할 수 있는지보고 있으며, 문제를 해결하는 데 어떻게 활용할 수 있는지 알아보십시오 I / O 외부 그래서 우리는 기계 학습을 말할 것입니다 데이터로 프로그래밍하고 있습니다

그리고이 데이터를 사용하여 시스템 또는 모델을 생성합니다 어떤 일을하도록 훈련 받았다 그리고 우리는 데이터를 사용하여 매우 중요한이 모델을 교육합니다 그리고 모든 것이 다시 데이터로 돌아옵니다 이것이 실제로 기계의 첫 번째 단계입니다

학습 – 데이터 수집 그것은 모두 중심에 있고 거기에서 시작됩니다 다음으로, 일반적으로 일종의 준비가 있습니다 해당 데이터가 필요합니다 원시 데이터는 종종 사용하기에 적합하지 않습니다

그래서 우리는 조금 준비해야합니다 귀하의 기계 학습 준비가되기 전에 셋째, 모델을 선택해야합니다 우리는 그것을 사용하고, 훈련시키고, 평가하기를 원합니다 그 성능, 미세 조정, 마지막으로 그러한 예측을하십시오

그래서 우리는이 7 가지 단계를 각각 거치게됩니다 이 세션의 과정에서 먼저 질문을 봅시다 우리는 우리 모델을 사용하여 첫 번째 문제를 해결하려고 노력하고 있습니다 간단한 예제 데이터 세트를 살펴 보겠습니다 이 7 단계를 통해 분류 작업을 수행하십시오

동물에 관한 데이터 우리는 어떤 종류의 동물이냐고 말할 것입니다 일부 입력 데이터를 기반으로합니다 이것이 새입니까? 그것은 포유 동물인가? 그것은 파충류 물고기, 또는 양서류, 버그, 또는 무척추 동물? 이 7 가지 유형 중 하나 그리고 그것은 다양한 통계에 기초 할 것입니다

주어진 동물에 대해서 따라서 우리 모델은이 데이터,이 구조화 된 데이터, 그것을 사용하여 예측을 시도하십시오 -이 7 가지 중 하나 동물의 종류 이제 우리는 어떤 상황이 우리는 모델링을하고 있습니다 이 단계들을 더 자세히 설명합니다 우선, 데이터 수집 중입니다

우리는 어떤 문제인지 알고 있기 때문에 우리는 해결하려고 노력하고 있습니다 항상 그렇지는 않습니다 이를 해결하기 위해 필요한 데이터가 있음을 의미합니다 데이터가 없으면 모델이 아무 곳에도 없습니다 그래서 내 데이터가 어디에서 어떤 형식으로 살고 있는지 스스로에게 물어보십시오

어떻게해야합니까? 이들은 종종 초기 걸림돌이다 우리는 문제를 해결하고 해결하기 위해 데이터를 사용하려고 노력합니다 그리고 아마도 당신은 실제로 상황에 처해 있습니다 필요한 모든 데이터가없는 곳입니다 자신의 데이터를 수집해야합니다

이것은 또한 일반적인 사용 사례입니다 그리고 당신은이 문제를 푸는데 독창적이 될 수 있습니다 데이터 수집을위한 시스템을 구축함으로써, 아마도 당신은 그것을 게임으로 만들 것입니다 정말 재미있는 예가 Quickdraw입니다 Quickdraw는 온라인 게임으로 당신은 특정 그림을 그려서 시도합니다

네가 그리는 것을 예측하는거야 그래서 그것은 당신에게 농구를 그리거나 배를 그립니다 그리고 당신도 알다시피, 그것은 재미 있습니다 사람들은 그것을 좋아합니다 결과적으로 게임이 생성되었습니다

십억 개 이상의 손으로 그린 ​​이미지의 기념일 로고 전 세계에서 그리고이 데이터 세트는 GitHub에서 오픈 소스입니다 실제로 AI 모험 에피소드가 있습니다 이 데이터 세트를 사용하는 방법에 대해 자세히 알고 싶으면 놓으십시오 그걸 가지고 놀아 라

하지만 우리의 계단으로 돌아가 우리는 데이터를 수집했습니다 무엇 향후 계획? 우리는 그 데이터를 준비해야합니다 데이터 준비는 완전히 별도의 대화가 될 수 있습니다 여기서는 몇 가지 측면 만 다루겠습니다

어떤 종류의 기계 학습을하기 전에 데이터를 탐색하십시오 실제로 데이터를 더 잘 이해하는 데 도움이 될 수 있습니다 이것이 당신에게주는 것이기 때문에 이것은 근본입니다 데이터 세트에 대한이 직관, 당신에게 많은 시간과 두통을 줄 수 있습니다 나중에 그 과정에서

그래서 저는 사람들이 그들의 데이터를 청소하도록 권장합니다 데이터를보고 그것에 대해 어떤 종류의 직감을 얻으 려합니다 간격을 확인하는 데 도움이됩니다 그 길을 따라 일하는 것에 대해 많은 것을 배웁니다 그리고 실제로 더 많은 데이터가 필요하다는 것을 알게 될 것입니다

또는 수집 한 특정 데이터 결국 실제로 그렇게 유용하지는 않았습니다 이 작업을 수행하기 위해 내가 좋아하는 도구 중 하나는 Facets입니다 우리는 잠시 우회하여 그것에 대해 이야기 할 것입니다 패싯은 오픈 소스 데이터 시각화입니다 Google Research의 도구입니다

데이터 배포에 대한 더 나은 이해를 얻을 수 있습니다 그리고 네, 가능한 많은 도구가 있습니다 당신은 아주 비슷한 일을합니다 명령 및 호출 함수를 작성할 수 있으며, 하지만이 모든 것이 한 곳에서 이루어집니다 UI이기 때문에 잊지 않을 것입니다

특정 통계를 계산하는 것 또는 데이터의 일부를 살펴보십시오 그것은 모두 당신을 위해 계산 되었기 때문입니다 그냥 나타납니다 그래서, 당신은 그냥 찾아 볼 수 있습니다 여기에서 우리의 데이터 세트에 적용된 패싯을 볼 수 있습니다

동물원에서 나온이 동물들 중 대부분은 일종의 것들이며 제로 데이터 세트는 호흡합니까? 꼬리가 있습니까? 깃털이 있니? 그런 것들 그래서 우리는 이런 종류의 재미있는 분포를 0으로 보았습니다 ~ 1 그러나 숫자 배포판을 사용하는 많은 경우, 훨씬 더 흥미로운 것을 보게 될 것입니다 자, 기계의 세 번째 단계로 넘어 갑시다

학습 – 모델 선택 그리고 우리는 모델 선택에 대해 조금 논의 할 것이고, 우리가 이것을 사용하는 방법에 대해 가능한 최소한의 노력 그리고 먼저, 주위에 직감을 구축합시다 기계 학습 모델이 잘 작동합니다 그래서 여기에서 우리는 모델이 어떻게 시도 하는지를 봅니다

우리가 말하려고하는 지역을 나누기 위해, 어느 쪽이 파란색이고, 어느 쪽이 주황인지, 점들인 데이터와 일치시킵니다 따라서 세계에서 가장 어려운 사례는 아닙니다 권리? 모든 것이 이미 영원히 분리되어 있습니다 분리했다 그러나 좀 더 재미있는 것을 보도록하겠습니다

여기, 우리는 약간의 모델 투쟁을 본다 그 동그라미를 그리는 방법을 찾으려고 시도 할 때 파란색 점 주위 그리고 이러한 도구가 오늘 당신에게 사용 가능하며, 충분히 정교합니다 당신을위한 모든 사소한 부분을 다룰 수 있습니다 그래서 당신은 어떻게에 대한 세부 사항을 걱정할 필요가 없습니다

그것에 대해지고있다 그것은 그 일을 성취하는 것의 문제 일뿐입니다 그러나 보는 재미입니다 또한 서로 다른 모델이 서로 다른 종류의 데이터를 모델링 할 수 있습니다 복잡한 정도가 다르다

그래서 이것이 모델 선택이 실제로 무엇인지에 대한 것입니다 그것은 어떤 모델이 딱 맞는지를 보는 것입니다 특정 데이터 세트 및 특정 문제 당신은 풀려고 노력하고 있습니다 이제 구체적으로, 우리가하려고하는 것 이것을 달성하기 위해 TensorFlow를 사용합니다 그래서 TensorFlow에 관해 많은 이야기가 있습니다

여기에 I / O에서 올해, 그래서 그 비트를 rehash하지 않습니다 그러나 우리는 예를 들어, 아마도, TensorFlow를 사용하여 모델을 수행하는 모습 선택, 실제로 그 코드를 쓰려면, 특히 경험치가 너무 많지 않은 경우 TensorFlow와 함께, 이것은 친절 할 수 있습니다 얼마나 쉽게 접근 할 수 있는지에 대한 유용한 정보를 제공합니다 이것은 선형 분류 자의 예입니다 우리가 본 첫 번째 애니메이션과 비슷합니다

드로잉은 두 공간 사이에 선형 선이 좋습니다 그리고 우리는 그것이 매우 간단하다는 것을 알 수 있습니다 그러나 더 복잡한 데이터가 있다면 어떨까요? 이 한 줄 전화는 음, 일종의 전화를 유지합니다 당신이 다른 모델에서 그것을 시도 할 때 그래서 우리는이 것을 깊은 신경 네트워크로 대체 할 것입니다

몇 가지 작은 수정이 필요합니다 이 경우에는 추가 인수 하나를 추가해야합니다 숨겨진 단위라고합니다 이것은 우리 네트워크의 구조를 정의합니다 이 경우, 우리는 30, 20, 10 개의 뉴런이 있습니다

그래서, 우리가해야 할 일은 말 그대로, 그냥 이름 바꾸기 – 그 텍스트를 대체하고 하나의 인수를 추가하십시오 전체 시스템을 다시 연결할 필요는 없습니다 모든 것을 삭제하고 시작할 필요가 없습니다 기스로부터 그래서 그것은 정말로 산뜻합니다

그리고 시도 할 수있는 다른 모델과 비슷합니다 많은 사람들이 모델을 뒤집습니다 메소드 호출의 이러한 다양한 선택 메뉴로 놀 수 있습니다 그리고 그 패러다임에서 미리 모델에 커밋하지 않아도됩니다 한 번 시도해보고 어떻게 작동하는지보고 다시 돌아올 수 있습니다

이 7 단계 때문에, 그리고 당신은 다시 반복 할 수 있습니다 언제든지 돌아가서 돌아볼 수 있습니다 그래서 우리를 다음 단계로 인도합니다 우리는 데이터를 수집했습니다 우리는 그것을 준비했습니다

우리는 최소한 모델을 선택했습니다 그리고 지금, 우리는 훈련을 할 수 있습니다 교육은 많은 관심을 얻습니다 왜냐하면 그것은 어떤면에서 마법이 일어나는 곳이기 때문입니다 그러나 실제로, 그것은 종종 매우 간단합니다

너는 그냥 뛰게하고 기다린다 그럼 훈련 도중 무슨 일이 일어나는지 살펴 보겠습니다 코드에서 볼 수 있습니다 개념적으로 모델을 훈련 할 때 우리는 데이터를 전달합니다 우리는 즉시 모델을 통해 예측을 시도합니다

그러나 예측은 꽤 나쁠 것입니다 왜냐하면 우리 모델은 무작위로 초기화되기 때문입니다 그러나 우리는이 예측을하고 그것을 취하여 비교합니다 진정한 대답, 우리가 알고있는 정답 그리고이 정보를 사용하여 모델을 업데이트합니다

따라서 모델을 검토하고 업데이트 할 때마다 작동하면서 새로운 데이터 조각으로 훈련 세트를 통과하는 길, 시간이 지남에 따라 모델이 더 좋아질 수 있습니다 각 교육 루프와 함께 따라서 교육 과정은 이와 같습니다 그러나 실제로, 코드를 실제로 작성해야 할 때, 우리는 모델을 만든 우리의 기능을 사용합니다 그리고 우리는 방금 그것에 도트 트레인을 불렀다

그것은 문자 적으로 한 줄입니다 당신은 그 기능을 제공 할 필요가 있습니다 교육 데이터 입력을 제공합니다 그것은 한 줄입니다 그리고 일단 훈련이 끝나면 – 이 기능을 실행하면 꺼져서 샌드위치를 ​​잡고, 그리고 당신은 돌아오고 평가를 할 시간입니다

우리는 우리 모델을 평가해야합니다 그것이 얼마나 정확한지 보는 것입니다 기본 작업을 잘 수행하는지 확인하십시오 그래서 우리는 사물의 몇 가지 예를 보여줄 수 있습니다 우리가 올바른 답을 알고 있다는 것, 모델은 훈련에서 이러한 질문을 보지 못했습니다

그것은 훈련에서 그 데이터를 보지 못했습니다 따라서 우리가 따로 설정 한이 평가 데이터를 사용합니다 우리 모델의 성능을 측정합니다 개념 상으로는 교육과 매우 유사합니다 여전히 같은 모양입니다

그러나 중요한 차이점은 상단에 화살표가 없습니다 그것은 폐쇄 루프가 아닙니다 예측을 확인하면 모델이 업데이트되지 않습니다 결과 그리고 모델을 업데이트 한 경우, 그러면 그것은 훈련과 다를 바 없으며, 우리는 본질적으로 속일거야

따라서 평가 데이터는 그런 식으로 소중합니다 모델을 업데이트하는 데 사용하지 않습니다 우리는 그것을 옆으로 잡고 그것을 예비 해 둔다 우리 모델의 성능을 평가할 수 있습니다 코드에서는, 우리가 본 모든 것만 큼 간단합니다

우리는 점 평가를 호출합니다 평가하고 싶다면 점 평가를 호출하십시오 그리고 우리가 평가 데이터를 전달하고 있음을 주목하십시오 그것은 eval 입력 함수입니다 따라서 교육 자료가 아닙니다

그리고 우리가 훈련 데이터를 사용한다면 – 우리는 그 줄을 복사했다고 가정 해 봅시다 우리는 방금 스왑 아웃, 평가를 위해 훈련, 데이터 소스를 변경하는 것을 잊었습니다 이제 우리는 우리 모델의 성능을 훈련 데이터, 그리고 그것은 큰 실수가 될 것입니다, 모델이 교육 데이터를 위해 최적화 되었기 때문입니다 따라서 동일한 데이터를 사용하여 평가할 경우 어떤 일이 발생합니까? 당신이 당신의 모델의 진정한 성과를 허위 진술하고, 실제 데이터에서 제대로 수행되지 않을 가능성이 있습니다 한 번 배포하면 결코 볼 수 없으므로 그리고 당신은 그것이 어떻게하는지 결코 측정하지 못했습니다 이전에 보이지 않는 데이터와 그래서 이것은 우리를 다음 단계로 안내합니다

그러면 우리는 실제로 모델을 어떻게 개선 할 수 있습니까? 우리는 훈련을 실시했다 우린이 짓을 했어 우리는 평가를 실행했습니다 이제 뭐? 우리는 더 많은 훈련을 받고 있습니까? 우리는 그것을 어떻게 더 조정할 수 있습니까? 우리는 언제나 새로운 모델로 교체 할 수 있습니다 그러나 우리가이 모델을 결정한다면, 그러나 우리는 그것을 향상시키고 자 하는가? 여기서 하이퍼 파라미터 튜닝이 이루어집니다

이 모델들은 그들 자신의 매개 변수를 가지고 있으며, 그러나 우리는 어떤 가치를 사용해야합니까? 그리고 우리는 그들을 어떻게 골라야합니까? 다른 모델을 시험해 볼 수있는 것처럼, 당신은 또한 다양한 모델 파라미터를 시험해 볼 수 있습니다 이 과정은 하이퍼 파라미터 튜닝이라고 불리며, 어떤면에서는 여전히 연구 활동의 영역으로 남아 있습니다 그러나 그것이 당신이 그것을 이용할 수 없다는 것을 의미하지는 않습니다 개념적으로, 우리는 우리의 훈련을받습니다, 한 모델 만 교육하는 대신, 그 모델을 조정할 것입니다 다양한 변형을 만들 수 있습니다

그래서 우리는 다양한 변형에 대한 교육을 실시 할 것입니다 같은 기본 모델이지만 다른 모델 매개 변수를 사용하여 정확도에 미치는 영향을 확인하십시오 그래서 우리는이 모든 변형들을 훈련하고 평가할 것입니다 동일하거나 유사한 모델을 선택하고 어느 것이 가장 잘하는 지보십시오 그것이 우리의 매개 변수 선택을 알리는 방법입니다

그러나 당신은 많은 것을 실험적으로 보았습니다 당신은 그 (것)들을 작동하기 위하여 보는 시도해야한다 따라서 네 루프를 벗어나야 할 수도 있습니다 그래서 좋은 하이퍼 매개 변수를 선택하는 작업입니다 아마도 당신이 이것을 직관했을 것입니다

당신은 아마 기계 학습 문제로 변할 수 있습니다 그 자체– 모델의 매개 변수 최적화 당신이 기계 학습을 위해 사용하고있는 그러나 우리는 다른 대화를 위해 그것을 구해야 할 것입니다 그래서 우리는 데이터를 수집했습니다 우리는 그것을 준비하고 모델을 선택하고 그것을 훈련 시켰습니다 데이터를 평가하고 하이퍼 매개 변수를 조정했습니다

마침내 우리는 마지막 단계에 도달했습니다 그 예측을합니다 이것은 훈련의 전체 요점이다 처음에는 모델이었습니다 정말 정확한 정확성을 얻는 것이 아니라, 또는 서버에 열을 가할 수 있습니다

실제로 그걸로 뭔가 유용한 일을하는 것이 었습니다 그래서 예측을하면 모델을 선택합니다 우리는 어딘가에 그것을 배치하거나 우리가 그것을 격리시켜, 우리는 모델에 그것이 가지고 있지 않은 일부 데이터를 보여줄 수있다 훈련을받은 후 어떤 결과물을 보는지 그것은 예측한다 그리고 그것은 우리의 7 단계입니다

기계 학습의 개념적 7 단계입니다 실제로 실제로 어떻게 보이는지 봅시다 우리는 사물의 툴링 측면으로 돌아갈 것입니다 TensorFlow 외에도 사용하는 것을 살펴보십시오 실제로이 7 가지 단계를 어떻게 달성 할 수 있는지에 대해 설명합니다

그래서 우리는 몇 가지 코드를 살펴볼 것입니다 특히 두 가지 도구가 제공됩니다 우리가 손을 잡을 테니 추가 리소스도 참조하십시오 먼저 Co Lab이라는 도구가 있습니다 어떤 종류의 노트북 환경에서도 작업 한 적이 있다면 또는 REPL을 웹에서 사용하기 전에 기본적으로 브라우저에서 Python을 실행하는 방법입니다

그러나 파이썬 만 실행하는 것이 아니라 전체적인 노트북 환경입니다 마크 다운, 코드 실행, 기본적으로 Google 드라이브에 호스팅되기 때문에 다른 사람들과 공유 할 수 있습니다 이제 데모로 전환 해 보겠습니다 CO Lab을 사용하는 모습을 보여줄 수 있습니다 그래서 우리는 여기 – 나는 Co Lab을로드하고 우리는 다양한 명령을 실행할 수 있습니다

모든 것 우리는 기대할 것입니다 이제 우리는 여전히 연결되어 있습니다 Co Lab에서는, 그것은 노트북 환경이기 때문에, 자신의 파일을 업로드해야합니다 인터넷에 연결되므로 인증 할 수도 있습니다 물건을 끌어 내려요

필자의 경우에는 데이터 세트가 머신에로드되었습니다 그리고 우리는 그것을 다운로드 할 수 있습니다 그리고 판다가 여기에 실려 있습니다 따라서 우리는 데이터 세트를 살펴볼 수 있습니다 약속대로, 그것은 동물의 무리 다

그리고 많은 통계 자료들, 그리고 결국, 클래스 유형이 있습니다 그래서 Co Lab에서는 실제로 코드를 실행할 수 있습니다 화면에 – 음, 실시간으로 또한 Google 드라이브에서 모두 호스팅되기 때문에, 백그라운드에서 어떤 기계를 돌려야 할 필요는 없습니다 그냥 원활하게 작동합니다

그리고 다른 사람들과 의견을주고 다른 사람들과 의견을 나눌 수 있습니다 과– 거기에 우리가 간다 일반적으로 공동 연구를하거나 일을해야합니다 그래서 그것은 정말로 산뜻합니다 그래서

보자 내 생각 엔 시간이 좀있어 그러니 실제로 내가 여기서 뭘했는지 조금 지나쳐

우리는 데이터를 가져 왔고, 내가하고있는 일은 그것을 섞은 다음 데이터를 분할합니다 그래서 우리는 전체 데이터 세트를 가지고있었습니다 이 전체 데이터 세트는 101 개의 다른 동물로 구성됩니다 아마도 가장 작은 데이터 세트 일 것입니다 아마 내가 만났을거야

하지만 여전히 동일한 유형의 모범 사례를 수행해야합니다 이 경우, 나는 그것을 가져 와서 나누었습니다 교육 및 평가 데이터로 변환합니다 왜냐하면 내가 훈련을하기 위해 모두 101을 사용한다면, 내 모델을 평가하기 위해 무엇을 할 것입니까? 그래서 우리는 그것을 나눌 것입니다 이 경우 나는 60 %와 40 %의 비율을 선택했다

그 비율은 조정될 수 있습니다 그리고 우리는 우리가 볼 수 있습니다, 우리는 우리의 훈련 데이터 – 모든 60 값 그리고 우리는 아래의 평가 데이터를 가지고 있습니다 그리고 저는 약간의 전처리를합니다 이것은 귀하의 데이터 비트 처리입니다

특히 데이터 세트의 마지막 열은 레이블입니다 그것은 대답이다 올바른 유형의 동물의 1에서 7까지 그것은 파충류, 양서류, 포유류 등입니다 문제는 레이블이 1에서 7로 이동한다는 것입니다 그리고 나는 그들에게 6을 통해 0이 될 필요가있다 이 특별한 경우에 그래서 나는 그것을 하나씩 뺍니다

하나를 뺍니다 그리고 그게 전부입니다 아주 간단한 사전 처리 아마 더 큰 데이터가, 아마, 더 많은 일을 할 것입니다 그리고 우리는 우리의 데이터가 분명히, 나는이 일을하지 않았다

항상 코드를 실행하십시오 여기에 우리의 입력 함수는 매우 간단합니다 우리의 원시 데이터가 필요하며, 만약 우리가 그것을 원한다면, 데이터 세트에서 임의로 호출 할 수 있습니다 그리고 나는 필요에 따라 반복하고 배치를 청크로 만들었습니다 그래서 이것은 훈련에 바로 들어가게 될 것입니다

데이터 세트에 대한 이야기가 있었다고 생각합니다 구체적으로는 입출력이 빠릅니다 그래서 놓친다면 녹음을들을 수 있어요 또는 라이브 스트림을 롤백 할 수 있습니다 그래서 우리는 데이터 집합을 가지고 있습니다

또는 우리의 입력 기능 그리고 나는 세포를 다시 돌리는 것을 잊었다 고 생각합니다 그리고 이것은 제가 여기있는 작은 세포입니다 내 입력 기능을 시험해보기 위해, 작동하는지 확인하려면 – 항상 물건을 테스트하는 것이 좋다 그래서, 우리는 입력 기능이 실제로 있다는 것을 알 수 있습니다

깃털의 각 유형에 대한 모든 데이터를 반환합니다 알을 낳고, 공중에 무엇이 있고, 백본이 있는가? 그런 것들 따라서 각 배열은 일괄 처리 된 데이터를 나타냅니다 그리고 나는 또한 이것으로 놀고 있었다 각 열의 고유 한 값을 확인하는 것 대부분이 1과 0이라는 것을 확인하기 위해, 그러나 조금 이상한 몇 가지가 있습니다

예를 들어, 5 개의 다리가있는 동물이 있습니다 따라서 모든 데이터 세트가 완벽하지는 않습니다 TensorFlow는이 기능 항목 개념을 사용합니다 들어오는 데이터를 나타냅니다 모델은 매우 일반적이므로 기능 열을 사용하여, 특정 데이터 세트에 맞게 사용자 정의 할 수 있습니다

우리의 경우 모든 데이터 (모든 열, 그 중 숫자 17 인 17 개가 모두 그것을 숫자로 설정하십시오 그래서 그것은 단지 구성입니다 TensorFlow에 몇 개의 열과 어떤 유형이 있는지 알려주 들어오고있어 그래서 우리는 그것을 실행할 것입니다 그리고 일이 깨면 그것은 내가 셀을 실행하는 것을 잊어 버렸으므로, 그렇게되면 저에게 소리를 지르십시오

그리고 여기에 우리가 전에 본 선이 있습니다 모델 생성과 함께 여기서는 선형 분류자를 만들고, 해당 지형지 물을 가져오고, 7 개의 다른 클래스가 있다고 말하자 동물에 대해 가능한 다른 값 기차와 평가를 결합했습니다 기차를 타고 함수를 함수로 평가한다

편의를 위해, 그래서 그들은 둘 다 함께 달린다 나는 훈련 자료를 훈련시키고 싶다 평가 데이터에 대한 평가를 실행하고 싶습니다 이렇게 함께 배치하면 세포를 재실행 할 때 버그가 생기지 않도록하십시오 네가 따라갈 때

선형 모델을 실행한다고 가정 해 봅시다 우리는 그 방향을 돌립니다 따라서이 모든 것이 Google의 서버에 의해 뒷받침됩니다 그리고 명백하게, 그것은 그것의 달콤한 시간을 보내고 있습니다 그것이하는 동안 – 글쎄, 이건 끝났어

그래서 우리는 90 %를 얻었습니다 이것은 OK와 같습니다 맞습니까? 100 개의 행만있었습니다 우리는 훈련을 위해 60 명을 가져 갔고 평가를 위해 40 명을 사용했습니다 그래서 그것은 가장 신뢰할만한 척도가 아닙니다

여기에 도구가 있다는 아이디어가 있습니다 코드가 있습니다 이를 자신의 데이터로 바꾸어야합니다 이 데이터 세트보다 훨씬 좋을 것입니다 멋진 결과를 얻을 수 있습니다

따라서 약속대로, 심 신경 네트워크는 매우 유사합니다 그것은 문자 적으로 이전과 동일합니다 그러나 나는 그것을 숨겨진 단위로 바꿨다 나는 주목할만한 차이가 하나 있다고 생각한다 내가 이전 기능을 사용한다는 것입니다

우리가 전에 가지고 있었던 컬럼들 표시기 열에 그래서 이것은 선형 네트워크를 배치하기위한 공간 일뿐입니다 데이터를 심 신경 네트워크가 표현할 수있는 방식으로 변환합니다 그래서이 이야기의 범위를 벗어났습니다 하지만 그것은 단지 깊은 신경 네트워크를위한 조정입니다

선형 네트워크는 처리 할 필요가 없습니다 그래서 우리는 그것이 만들어 지도록 할 것입니다 죄송합니다 방금 새 셀을 만들었습니다 그래서, 그것은 또한 여기에서 과시하는 것이 좋습니다

따라서 우리는 매우 쉽게 코드 블록과 셀 블록을 생성 할 수 있습니다 그 사이에 모든 종류의 훌륭한 편집 작업을 할 수 있습니다 능력은 여기에 있습니다 그리고 당신은 그것을 markdown으로 바꿀 수 있습니다 셀을 실행합니다

그리고 거기에있을거야 그래서 깊은 네트워크 – 내가 이것을 도망 간다는 것을 잊어 버린다 어쩌면 우리는 그것을 다시 실행할 것입니다 모델을 더욱 밀어 넣을 수도 있습니다 여기 백분율은 때로는 불안정합니다

왜냐하면 그들은 – 평가 데이터에는 40 개의 값만 있기 때문에, 이것은 사실입니다 40 세가 넘는 사람들이 올바르게 받아들이고 있습니다 다른 것들은 틀린 것입니다 그래서이 경우 10 %, 아마도 약 4 % 잘못되었거나 3 ~ 4 개가 잘못되었습니다 그래서 몇 가지 예언을하고 놓친 것을 봅시다

TensorFlow에는 도트 예측 기능도 있습니다 마치 기차와 도트를 평가하는 것과 같습니다 그래서, 당신은 통과 할 수 있습니다 방금 평가 자료를 가져 와서 몇 장을 나눠 냈어 보십시오보기의보기

그래서 우리는 우리가 그렇게 할 때, 당신은 예측과 올바른 대답을 얻습니다 그래서이 경우, 내가 임의로 선택한 다섯 가지 일이 생겼어 그러나 우리가 잘못한 정확한 것을보고 싶다면 어떻게해야할까요? 그래서 이것은 내가 도망친 작은 실험이었다 단지 내가 궁금해서 – 어느 것이 선형 네트워크가 잘못되었는지 그리고 어떤 것들은 깊은 네트워크가 잘못 되었습니까? 이 경우에는 서로 다릅니다 그들은 같은 숫자의 잘못된 예측을 가지고 있습니다

그들은 모두 네 가지가 잘못되었지만 실제로는 다른 예 그리고 이것은 더 깊이 파고들 수있는 기회가 될 것입니다, 그걸 가지고 놀아 라 마지막으로 내가 추가 할 것은 Co Lab 또는 Co Laboratory입니다 GPU를 지원합니다 그래서 GPU를 토글 할 수 있습니다

큰 데이터 세트와 멋진 모델이 있다면, 그런 종류의 물건에 액세스하고 그 GPU를 얻고 싶습니다 슬라이드로 돌아가 봅시다 간단히 살펴보고 다른 도구를 살펴보십시오 CO 연구실 외에 다른 도구가 있습니다 우리는 매우 유사합니다

노트북 기반이기 때문에 들어 보셨을 것입니다 그것은 Kaggle이라고합니다 그리고 Kaggle이 대회로 가장 유명하지만 토론 포럼 및 데이터 세트, 또한 Kernels라는 기능이 있습니다 그리고 커널은 실제로 노트북의 멋진 이름입니다 그리고 커널은 이런 모습입니다

Co Lab에서 익숙해지기 시작할 수도 있습니다 파란색은 제외하고 그리고 커널은 몇 가지 미묘한 차이가 있습니다 첫째, 나는 ~하고 싶다 Kaggle Kernels의 데모로 전환 해 보겠습니다

우리는 그 모습을 볼 것입니다 어떻게한다는거야? 그래서 저는 이전에 Co Lab에서 가지고 있던 노트북을 가져갔습니다 나는 노트북 자체를 다운로드했다 IPython 노트북 파일로 Kaggle에는 데이터 세트가 있기 때문에 실제로 동물원 동물 분류 데이터 세트가 있습니다

정확한 데이터 세트를 얼마나 편리하게 선택했는지 그것은 이미 Kaggle에 존재합니다 그래서 새로운 커널을 클릭 할 수 있습니다 노트북을 고를거야 그리고 Kaggle Kernels는 파이썬에서 동작 할뿐만 아니라, R에서 실행하도록 선택할 수도 있습니다 R을 선호합니다

제가 할 수있는 일은 실제로 제가 할 수있는 일입니다 노트북 업로드 – 음, 먼저 그 노트를 다운로드해야합니다 그럼 그렇게 하죠 그래서 Co Lab에서 우리는 다운로드 할 것입니다 – 이것은 내가 크게 확대하는 것입니다 책을 다운로드하십시오

그런 다음 다운로드가 완료되면 그 노트를 다시 Kaggle Kernels에 업로드 할 수 있습니다 그래서 붐

커널과 동일한 노트가 있습니다 하나의 작은 비틀기가 있습니다 로컬 드라이브에서 파일을 업로드해야했기 때문에, Co Lab을 위해, 우리는 그것을 제거 할 것입니다 그리고 유일한 다른 조정은 Kaggle Kernels에서 데이터입니다 입력이라고하는 하나의 디렉토리에 있습니다

첫 번째 셀을 실행하면 우리는 아래로 나아갈 것입니다 우리는 데이터가 입력에서 살아 있음을 볼 것입니다 그리고 그것은 같은 종류의 것입니다 그리고 우리는 이미 노트북의 나머지 부분을 보았 기 때문에, 그것은 문자 적으로 같은 것입니다 재미있는 것은, 커널에서, 우리는 할 수 있습니다

어디 보자 이름을 지어 보자 그리고 우리는 그 노트를 저 지르 수 있습니다

그리고 Kaggle Kernels이하는 일은 그것입니다 새로운 신선한 환경에서 노트북을 운영 할 것이며, 당신이 속한 세션과는 별도로 그러면 모든 출력이있는 노트북이 생성됩니다 우리가 일종의 훌륭한보기 전용 형식으로보고있는 정말 공유에 유용합니다 왜냐하면 당신이 당신의 노트를 공유하고 싶다면, 그것이 실행 된 방법뿐만 아니라 다른 사람들에게도 마찬가지입니다 재현 가능한 노트북을 원한다면 우리가 여기에서 보는 것의 종류

그래서 우리는 수첩을 썼다 끝났다 그리고 그 스냅 샷을 볼 수 있습니다 그래서 GitHub 모델과 비슷합니다 당신의 노트를 버틸 수있는 것처럼 따라서 기본적으로 노트는 비공개입니다

그리고 우리는 여기서 일들이 도망가는 것을 볼 수 있습니다 나는이 모든 것들을 하나씩 수행 할 필요가 없었습니다 그리고이 세포들을 수동으로 작동시키지 않으면, 이전에, 내 결과를 얻기 위해 이처럼 위에서 아래로 그 종류의 버그를 잡는 데 도움이됩니다 도움이 될 것입니다 내가 내려올 때 길 아래로 내 공연 이번 주 또는 다음 달에

그리고 노트를 공유하면, 노트를 포크 할 수 있습니다 그들을 포크로 찍을 수 있습니다 당신은 또한 다른 사람들이 당신의 노트를 포크로 찍게 할 수 있습니다, 또한 노트북에 공동 작업자를 추가 할 수 있습니다 동일한 노트에 사용자를 추가 할 수 있습니다 그냥 그들을 포크보다

따라서 많은 훌륭한 공동 작업 모델이 있습니다 Co Lab 및 Kaggle 전체에서 특정 유스 케이스에 그리고 간단히 언급하면 ​​좋을 것 같습니다 Co Lab과 마찬가지로 Kaggle Kernels에서도 GPU를 사용할 수 있습니다 게다가

그래서 그것이 당신을위한 결정적인 요소가되도록하지 마십시오 Kaggle Kernels입니다 슬라이드로 다시 전환합시다 몇 가지 다른 작은 도구와 팁에 대해 이야기 해보십시오 그리고 속임수, 우리가 일을 마무리하기 전에

슬라이드로 다시 전환 할 수 있다면 굉장해 그럼, 당신은 노트북을 원하지 않는다고 가정 해 봅시다 예를 들어, 노트북을 사용해보십시오 그리고 그들은 단지 당신을위한 것이 아니 었습니다 또는 더 큰 작업 부하가 있습니다

장기 실행 작업을해야합니다 몇 시간 동안 뛰게됩니다 아니면 정말 큰 데이터 세트를 가지고 있거나, Kaggle Kernels에 맞지 않습니다 또는 로컬 디렉토리에 맞지 않는 경우, 그래서 수동으로 드라이브에 업로드하지 않을 것입니다 그런 다음 Cloud Machine Learning Engine과 같은 것을 사용할 수 있습니다

당신은 일자리를 차출 할 수 있습니다 – 장기간 일하는 – 분산 된 컴퓨터 집합을 가로 질러 실행될 수도 있습니다 모두 잠재적으로 GPU가 첨부되어 있습니다 일단 끝나면 모델을 제공 할 수 있습니다 당신은 그 예측을하고 싶다 그러나 아마 당신은 그것을 대규모로하고 싶습니다

당신은 앱을 만들고 있습니다 모델을 훈련하고 생성하려고합니다 세계에 예측을 제공 할 수있는 휴식 종점 그리고 기계 학습 엔진 또한 자동 스케일링 예측 서비스가 포함됩니다 글자 그대로 TensorFlow 모델을 사용할 수 있습니다

그것에게 이름을주고, 끝내라 말 그대로 파일을 가리키고 이름을 지정하십시오 다른 단계는 없습니다 왜냐하면 봉사 할 모델을 만드는 관점에서 다른 일은 할 수 없다 그것은 정말로 산뜻하다

그리고 당신이 scikit-learn 같은 것들로 작업한다면 또는 [INAUDIBLE] 부스트를 선택하고 해당 서비스를 제공하려는 경우, 우리는 그것들을 또한 가져갈 것이다 그래서, 당신은 작전을 처리 할 필요가 없습니다 기계 학습의 측면에서, 당신은 당신의 데이터로 놀 수 있고, 모델을 조정하고, 교육하고, 쉽게 배포 할 수 있습니다 그리고 나는 대부분이 대부분은 아니지만 많은 사람들이 기계 학습 API를 알고있을 수도 있습니다

또한 사용할 수 있습니다 이들은 다양한 작업을 수행하기 위해 사전 설정된 API입니다 그들은 좀 더 통조림입니다 자신의 데이터를 제공하지는 않지만 모든 것이 그냥 상자에서 작동한다는 것을 의미합니다 너는 뭔가가 필요해

너는 돌릴 그림이 필요해 설명으로, 당신은 텍스트로 바뀌어야 오디오가 필요합니다, 그냥 작동합니다 그래서 친절 해 그러나 물론 제한 사항은 사용자 정의 할 수 없다는 것입니다 귀하의 특정 사용 사례

아직 기다려야 할 것이 있습니다 조금 더 길어 Vision의 주목할만한 예외가 있습니다 따라서 자동 ML, Vision은 현재 알파에서 사용 가능하며, 그래서 당신은 그것을 신청할 수 있고 자신의 데이터를 제공 할 수 있습니다 자신의 Vision API를 교육하고 맞춤 설정합니다

그래서 그것은 깔끔한 측면 접선과 같습니다 이전에 보았던 애니메이션, 나는 오렌지와 파란 점들과 함께 보여 주었다 TensorFlow 놀이터에서 왔습니다 그래서 신경망으로 놀고 싶다면 귀하의 브라우저에서와 같은 것들을 토글 켜고 끄기 장난 만하면됩니다 TensorFlow

org 그리고 바로 그 일을 할 수 있습니다 그리고 걱정하지 마라, 당신은 그것을 깰 수 없다 브라우저를 통해서만 가능합니다 자신의 기계 만 깰 수 있습니다 그러면 다음은 무엇입니까? 우리가 방금 본 코드는 – 나는 그것을 공개했다

그것은 Kaggle 위에 있습니다 그래서 Kagglecom/yufeng/zoo-demo에 있습니다 TensorFlow에 대해 더 자세히 알고 싶다면, TensorFloworg로 향하십시오

셋째, 기계 학습 과정이 있습니다 구글이 최근에 발표했다 그리고, 만약 당신이 배우고 싶다면 – 정말로 잠수해라 기계 학습의 개념으로, 우리가 오늘 여기에서 이야기했던 것보다 더 멀리 나아 간다 저기로가

기본적으로 전체 커리큘럼이 있습니다 할 수있는 동영상 및 과제에 대해 기계 학습 지식을 축적하십시오 그리고 마지막으로, 기계를 다루는 데 관심이 있다면 클라우드에서 학습하면 넘어갈 수 있습니다 클라우드 돔, 하얀 텐트에 Google Assistant 돔 옆에 있습니다 또는 cloud over

Googlecom/mineinelearning으로 이동하십시오 또는 / ml이다 처음에 언급했듯이, 저는 비디오 시리즈를 호스트합니다 AI 모험과 같은 이름으로 우리는 재미있는 너겟을 탐험한다

기계 학습에 관한 각 에피소드에서, 한 번만 실습 데모를 시도해보십시오 흥미로운 사람들과 몇 차례 인터뷰를합니다 그래서 잘하면 당신은 그것을 확인하고 구독 할 것입니다 이 세션에서 저와 함께 해 주신데 대해 감사드립니다 우리는 정말로 – 세션에서 피드백을 정말 고맙게 생각합니다

정보, 그래서 일정에 이상 머리에하시기 바랍니다, 로그인하여 몇 가지 피드백을 줄 수 있습니다 고마워 [박수 갈채] [음악 재생]

Opportunities, challenges, and strategies to develop AI for everyone (Google I/O ’18)

[음악 재생] 페르난다 비 에츠 : 와줘서 고마워 제 이름은 페르난다 비에 가스입니다

나는 Google Brain의 일부입니다 저는 또한 PAIR 이니셔티브의 리더이기도합니다 People + AI Research를 위해 오늘 가입하게되어 매우 기쁩니다 이 멋진 패널

그래서 저는 Rajen Sheth입니다 그는 제품 담당 이사입니다 Google Cloud AI, Daphne Luong, 구글의 엔지니어링 디렉터, 존 플래트 (John Platt) Google AI에서 응용 과학 담당 이사 그리고 오늘, 우리는 기회에 대해 이야기 할 것입니다 도전 과제 및 전략을 개발했습니다

네가 할 수 있다면, 제발, 나는 너를 사랑해 Google에서하는 일에 대해 간단히 이야기하겠습니다 RAJEN SHETH : 제 이름은 Rajen Sheth입니다 클라우드 AI 용 제품 팀을 운영하고 있습니다 따라서 우리가하는 일은 Google 클라우드 내에 있습니다

우리는 어떻게 AI의 최고를 가져올 수 있는지 알아 내려고 노력하고 있습니다 개발자와 기업에게 그렇다면 개발자에게 구축 할 수있는 훌륭한 플랫폼을 제공하려면 어떻게해야할까요? 그렇다면 Google의 최고의 AI를 어떻게 활용할 수 있습니까? 서비스로 사용할 수 있도록 개발자를위한? 페르난다 비 에츠 : 고마워 DAPHNE LUONG : 제 이름은 다프네 루옹입니다 저는 Google AI, 인간의 계산, 데이터, 자연 언어 이해

John Platt : 저는 존 플랫입니다 그리고 적용된 과학 기관을 운영하는 데 도움이됩니다 Google AI 내부 우리는 모든 기회에 매우 흥분합니다 생물학이나 물리학과 관련된 과학 그리고 우리는 컴퓨터 과학, 특히 기계 학습과 인공 지능, 정말 가속화 할 수 있습니다

이것이 바로 우리 조직이하는 일입니다 페르난다 비 에츠 : 고마워 그래서 매우 사물 중 하나 이 패널과 많은 주제에 대해 저에게 영감을줍니다 올해 I / O에서 진행되는 모든 사람들을위한 AI입니다 그래서 저는 PAIR에서 주요 연구 중 하나 인 것을 알고 있습니다

우리가 가진 주제는 인간 중심의 AI를 어떻게 디자인 할 것인가입니다 과학 기술? 사용자를 염두에두고 어떻게 시작합니까? 그 다음에 맞는 기계 학습 기술을 설계 할 것인가? 그래서 내가 당신 한테 물어보고 싶은 것들 중 하나 조금이라도 이야기하는 것은 "모든 사람들을위한 AI" 너에게 의미가 있니? RAJEN SHETH : 나에게 그것은, 정말로, AI를 어떻게 쉽고 유용하게 만드십니까? 그것을 사용하고 싶은 사람들을 위해? 그리고 저는 우리에게 두 가지 큰 문제가 있다고 생각합니다 지금 AI로보고 있습니다 하나는 그곳에는 많은 기술이 없다는 것과 그렇지 않은 것입니다 AI 모델을 구축하는 방법에 대한 지식, 특히 깊은 학습, 거기 있어야합니다

그래서 우리는 그것들을위한 도구를 만들려고 노력하고 있습니다 더 많은 사람들이 AI에 액세스 할 수 있도록하기 위해, 하지만 AI에 대해 배우고 그것을 어떻게 사용하는지 파악할 수 있습니다 예를 들어 우리가 찾는 것은 아마 수만 명에 달할 것이라고 깊은 학습을하는 법을 알고있는 사람들의 아마 2 억 정도의 순서로 밖에있는 데이터 과학자들 그러나 2,100 만 명의 개발자가 있습니다 그래서 우리의 목표는 AI를 어떻게 얻는가입니다

2100 만 명의 개발자가 액세스 할 수 있습니까? 그리고 두 번째 부분은 유용성입니다 AI가 유용하도록 실제로 어떻게 만들었습니까? 우리는 어떻게해야합니까? 특히 기업, 멋진 일만 할 수없는 곳을 넘어, 그러나 그들은 유용한 일을 할 수 있으며, 실제로 비즈니스에 필수적입니까? 페르난다 비 에츠 : 당연하지 DAPHNE LUONG : 나에게, 모두가 참여하고 인식하게하기 그래서 알고리즘은 표현을 가진다 모든 사용자에게 제공됩니다

데이터 측면에서 이것은 우리가 대표적인 데이터가 있어야한다 모든 사용자의 네 글쎄, 나를 위해, 모두를위한 AI가 노력하고있다 사회의 많은 부분에 인공 지능의 혜택을 얻으려고 또는 전 세계에 걸쳐 그래서 우리는 레버리지 포인트를 찾습니다 우리는 세계의 모든 사람들이 인공 지능을 사용하도록하려는 것이 아닙니다

우리는 AI가 제공 할 수있는 것들의 열매를 맺기 위해 노력하고 있습니다 그래서 우리가 이러한 지렛대 포인트를 발견 할 수 있다면, AI의 로컬 응용 프로그램은 정말 전 세계를 도울 수 있습니다 그것이 우리가 찾고있는 것입니다 그래서 나는 슈퍼 영웅입니다 인공 지능과 기계 학습 문제 과학, 과학은 획기적인 기술로 이어질 수 있기 때문입니다

페르난다 비 에고 : 좋아요 나는 여기 흥미로운 것들 중 하나를 생각한다 이 패널과이 주제는 각자가 매우 다른 관점에서오고있다 Rajen, 제품에 관해서 생각하고 있습니다 사물의 비즈니스 측면을 슬래시

대프니, 근본적인 블록 중 일부를 만드는 것을 돕고 있습니다 데이터와 마찬가지로 기본적인 데이터 생성 이 기술을 전혀 할 수있는 블록 그리고 나서 John, 당신은 연구의 관점에서 왔습니다 우리는 어떻게 과학자들을 가능하게할까요? 어떻게 과학을 가능하게 할 수 있습니까? 우리가 인공 지능에 관해 이야기 할 때마다 올 수있는 것들 중 하나입니다 우리가 기계 학습에 관해 말할 때마다, 이 표현의 개념입니다

그리고 저는 그것으로 처음부터 시작하고 싶습니다 데이터에 대해 이야기하고 싶습니다 대프니, 정말 흥분 했어 네가이 패널의 일부가 될 거라는 말을 들었을 때 왜냐하면 나는 당신을 구글의 데이터 황제라고 생각하기 때문입니다

[LAUGHS] 그래서 당신의 작품은 더 좋은 방법을 창조하는 것에 관한 것입니다 규모를 키울 수 있습니다 예를 들어 데이터를 어떻게 수집합니까? 우리는 어떻게 통찰력있는 방법으로 그렇게합니까? 그래서 제가 좋아할만한 것들 중 하나 너에 대해서 조금이라도 말하면 Google에서 데이터 세트를 표현한 것입니다 오늘 그게 어떻게 생겼어? 그래 따라서 의미 론적으로 의미 있고 체계적인 – 정확하게 교정 된 라벨 데이터, 규모는 기계 학습에 정말로 중요합니다

표현의 관점에서 볼 때 일부 데이터 잘 균형이 잡히지 않았다 예를 들어, 위키 피 디아 데이터를 살펴보면, "그"라는 대명사는 훨씬 더 많이 언급됩니다 "그녀보다" Google 내부에는 많은 데이터가 있습니다 그리고 내가 이야기하고 싶은 예제 세트 작년에 우리가 오픈 한 오디오 데이터 세트입니다

데이터 세트에는 85k 시간의 오디오가 포함 된 210 만 개의 비디오가 있습니다 그런 다음 약 500 클래스의 사운드로 주석을 달았습니다 그건 꽤 흥미 롭군요, 그렇죠? 너는 연설과 음악, 모든 방법으로 소리를 낸다 엔진 소리 또는 burping 또는 양치질에

그런 관점에서 보면 오디오와 사운드를 갖는 것이 정말로 중요합니다 세상의 모든 사람들이 아이들의 소리를 듣는 것과 같습니다 인도는 중국과 미국과 매우 다릅니다 그런 종류의 것이 내가 생각하는 것입니다 데이터 세트를 만들 때마다 생각해야합니다

페르난다 비에 가스 : 그래서 훌륭합니다 그래, 내가 다른 모든 오픈 소스 데이터를 알게되었을 때 우리가 내놓은 세트는 정말 흥미 롭습니다 오디오, 비디오, 텍스트를 볼 수 있습니다 번역이 있습니다 너는 그것들 모두를 가지고있다

그러나 기계 학습에서 데이터에 대해 이야기 할 때마다 당신은 또한 도전에 대해서 이야기하고 있습니다 그래서 네가 조금 만지기 시작한 것들 중 하나가 나는 그것을 더 끌어 내고 싶다

표현의 개념이다 데이터 세트가 올바른 표현인지 확인 다른 사용자, 다른 지역 사회 그리고 그것은 어려운 일입니다 궁금 해서요, Google이 그 일에 대해 무엇을하고 있습니까? 어떻게 생각하고 있니? 네 커뮤니티의 Google 사용자이므로 매우 기질이 좋았고, 우리를 위해 데이터와 물건을 기부했습니다

우리 제품을 더 잘 만들 수 있습니다 Google 가이드가 그 예입니다 얼마나 많은 사용자가 Google 가이드를 잠재 고객에게 사용 했습니까? 그래, 네 그래서 데이터면에서 우리는 정말 비슷한 것을하고 있습니다 우리는 애플 리케이션과 웹상에있는 Crowdsource 앱을 가지고 있습니다

바로 지금, 지난 2 년 이래로, 실제로 2 백만 명의 사용자가있었습니다 전 세계의 앱에 기부, 사실 233 개국 그것은 많은 다른 사람들입니다 그리고 우리는 사람들로부터 2 억 건의 기부금을 받았습니다 질문, 모든 방법에서, 헤이, 인도네시아의 한 도시에서이 표지판을 길에서 볼 수 있습니까? 대,이 문장을 어떻게 사용합니까? 힌디어에서 문장의 정서는 무엇입니까? 모든 데이터가 있습니다

그리고 그 데이터는 실제로 제품을 더 좋게 만드는 데 도움이됩니다 사람들이 표지판이없는 거리를 탐색 할 수있게 도와줍니다 랜드 마크 탐색과 마찬가지로 키보드를 더 많이 사용합니다 접근성이 좋고 무거운 물건 만들기 [불충분] 세부 사항 레이블이 지정된 데이터 세트 그래서 저는 그것이 정말로 중요하다고 생각합니다

Crowdsource 앱이 없다면, 그것을 다운로드하십시오 페르난다 비 에고 : 좋아요 고맙습니다 내가 결코 해본 적이없는 오디오에 관한 것들 중 하나 내가 이것을 읽을 때까지 생각했다 성인의 목소리 사이에 큰 불일치 어린이 대

그래서 당신은 많은 다양한 차원들에 대해 생각해야합니다 다양성 그래 그리고 앱에서 우리는 실제로 35 개국에 사용자가 시작한 그룹이 있습니다 우리는 사실 모든 기여에 대해 정말로 흥분하고 있습니다

페르난다 비에 가스 : 굉장해 승인 자 이제 데이터에서 조금 이동하십시오 우리가 모든 사람들에게 AI에 관해 말할 때마다, 나는 생각합니다 마음에 오는 첫 번째 질문 우리가 어떻게 AI를 이용 가능하게하고 사용자를 위해 더 좋게 만드는가? 라잔, 여기 내가 너에게로 향할거야

그리고 당신이 클라우드에서 이러한 서비스를 이끌도록 돕고 있기 때문에, 이 ML 도구를 어떻게 설계 할 생각입니까? 사용자가 쉽게 사용할 수 있습니까? 그리고 거기에 또 하나의 질문이 있습니다 어려움에 대해 조금이라도 이야기 할 수 있다면 네가보기 시작 했어 사용자가 고착되는 패턴은 무엇입니까? RAJEN SHETH : 예, 예 좋은 질문입니다 나는 그것의 두 가지 큰 부분이 있다고 생각합니다

하나는 사람들이 모델을 쉽게 만들 수 있도록하는 것입니다 그러나 두 번째 부분은 어떻게 확신 할 수 있는가입니다 그 모델이 공정하고 편견이 없으며 실제로 게재되고 있습니다 그 목적은 옳은가? 사람들에게 매우 쉽기 때문에 그들이 수동으로하고있는 것을 취하고 결국 끝내기 위해, 인코딩 바이어스 그래서 그것의 한 부분에서 우리가하는 일은 우리는 다양한 도구를 제공하고 있습니다

우리가 작업하고있는 가장 흥미로운 것들 중 하나 Cloud AutoML입니다 따라서 Cloud AutoML은 사용자가 우리에게 줄 수있는 방법입니다 데이터 세트를 만든 다음 기계를 사용합니다 그 데이터를위한 기계 학습 모델을 만드는 법을 배웁니다 세트

우리가이 일을하는 첫 번째 영역 당신이 우리에게 줄 수있는 이미지 인식입니다 레이블이 지정된 일련의 이미지가 표시되면 매우 정확한 모델을 맨 위에 놓으십시오 이미지를 예측할 수 있습니다 그래서 이것이 그 사실을 확장시키는 데 도움이되었습니다 우리는 그것에 접근하기 위해 등록한 15,000 명의 사람들이 있습니다

그리고 우리는 놀라운 사용 사례를보고 있습니다 정말 큰 회사에서 아주 작은 회사에 이르기까지 주위에 일을하고 있습니다 예를 들어, 농민들이 밭을 관리하거나 쓰레기를 추적하는 것을 돕는다 생산자에게 쓰레기를 되돌려 주도록하십시오 페르난다 비에 가스 : 기술적 전문성 AutoML을 사용하려면 사용자로서 필요합니까? RAJEN SHETH : 네, 좋은 질문입니다

우리는 그것을 만들기 위해 방향을 잡으려고합니다 ML이 제한적이거나 필요하지 않도록해야합니다 그것을 사용할 수있는 전문 지식 그리고 우리 UI를 보면, 그것은 매우 유사합니다 Google 포토

사진을 업로드합니다 라벨을 붙이세요 실제로 다프네 (Daphne)와 많은 서비스를 통합하고 있습니다 팀이 원한다면 우리에게 라벨을 붙이기 위해 사용하고 있습니다 그리고 당신은 기차에 탔고, 그러면 우리는 당신을위한 모델을 만드십시오

그러나 올바른 데이터를 얻는 것은 세트가 핵심 부분입니다 따라서 모델을 만들 필요가없는 경우에도, 올바른 데이터 세트를 만들어야합니다 그리고 거기에서, 우리는 확실한 도구를 제공하려고 노력하고 있습니다 사람들은 올바른 데이터 세트를 만들 수 있습니다 데이터 세트에 결함이있는 곳을 찾아냅니다

그리고 나서 이것의 반대편에서 편견과 같은 것들, 우리는 그 주변의 도구를 알아 내려고 노력하고 있습니다 모범 사례를 통해 고객에게 조언을 제공합니다 그들이 넣는 데이터 세트가 실제로 올바른 결과를 얻을 수 있습니다 페르난다 비에 : 괜찮아 데이터가 계속 병목 현상의 하나가되고 있습니다

RAJEN SHETH : 이것이이 기초입니다 그리고 잘못된 데이터를 넣으면 결국 잘못된 결과와 함께 페르난다 비 에츠 : 네 승인 존, 주제의, 모두가보고있는 것처럼, 데이터 집합의 다양성 – 다양성 또한 이러한 경험을 어떻게 작성합니까? 컴퓨터 학습 자체가 아닌 사용자를 위해 전문가,이 기술을 사용할 수 있습니까? 나는 또한 당신에게 다양성에 대해 듣기를 좋아합니다

기계 학습 측면의 표현, 개발자 연구원 내가 너를보고있는 이유는 네가 과학자들과 일하고있다 그래서 잠재적으로 필요로하는 사람들입니다 맞춤형 모델 그들은 때로는 봉투를 밀고있을 것입니다

그러나 그들은 기계 학습 전문가가 될 수 없습니다 그래서 나는 당신의 생각에 대해 궁금합니다 존 플래트 : 글쎄, 과학은 점점 커지고있다 점점 더 데이터 중심으로 발전 할 것입니다 물리학자를 비롯한 많은 과학자, 생물 학자들에게 지질 학자들, 그들은 일을한다

많은 양의 데이터를 수집합니다 그래서 그들은 이미 데이터 과학에 종사하고 있습니다 그리고 지금 큰 기회가 있습니다 그들 스스로가 훨씬 더 많은 것을 배우기 위해 기계 학습을 사용하도록 생산적인 내가 보는 방식은 친절 하네

과학자에게 수천을주는 것 같이 학부 보조자의, 즉, 볼 일, 슬라이드 – 당신이 세포의 슬라이드를 검사 할 수 있다면, 당신은 수천 명의 보조원이 당신을 위해 그것을 볼 수 있습니다 그것은 일종의 예입니다 그래서 이것이 당신의 질문에 답하는 지 모르겠습니다 그러나 나는 우리가 할 수있는 것에 정말로 흥분한다 과학자들이 도움을 줄 수있는 구체적인 방법을 도울 수있는 모델을 만든다

그들의 연구를 가속화합니다 그리고 우리는 실제로 과학자들과 협력합니다 이러한 종류의 모델을 구축하는 데 도움이됩니다 그래서 나는 당신의 질문에 대답하기를 바랍니다 페르난다 비 에츠 : 어떤 종류의 과학자들인가요? 너 같이 일하고있어? John PLATT : 음, 적용된 과학 사람들, 생물 의학 연구를 시도하는 우리 무리가 있습니다

질병의 핵심 연구를 이해한다 신경 퇴행성 질환과 같은 기후와 에너지를 연구하는 우리 무리가 있습니다 그래서 우리는 TAE Technologies라는 회사와 일하고 있습니다 우리가 융합 에너지를 만들 수 있는지 알아 내려면 상업적으로 적합하게 만드십시오 그래서 우리는 생물학, 물리학, 화학 전반에 걸쳐 있습니다

우리는 양자 화학을 모방하는 많은 사람들과 협력합니다 페르난다 비에 가스 : 그리고 나는 같은 질문을 짐작한다 나는 Rajen에게 물었다 나는 너에게 묻고 싶다 그게 가장 큰 것 같아

오늘날 과학자들이 이런 종류의 일을하기가 어렵다 패턴이 있습니까? 데이터입니까? 모델을 조합하는 방법을 이해하고 있습니까? 너 뭐가 보이니? John PLATT : 글쎄, 그들은 일반적으로 모델 중 일부는 만들지 만 모델 자체를 만들고 싶습니다 과학자와 컴퓨터 사이에 증가하는 교차가 있습니다 과학자 그러나 나는 그들이 생산성 도구를 갖고 싶어한다고 생각합니다 즉, 생산성 도구를 구축 할 수 있도록 도와 줄 수 있습니까? 그들 자신의 연구를 위해서? 그리고 그들은 스스로 그것을 만들려고 노력할 수도 있습니다

그들이 기계 학습을 알고 있거나 우리가 그들을 도울 수 있다면 페르난다 비에 : 괜찮아 그래서 그 라인을 따라, 물건 중 하나 나는 아주 흥분했다 몇 달 전, PAIR의 사람들, Google의 다른 사람들과 협력하여 TensorFlowjs를 시작했습니다

그리고 이것은 정말로 중요합니다 우리가 말한 것에 관해서는 기술을 민주화하고 기계 학습 웹 TensorFlowjs는 웹의 모국어를 구사하며, 자바 스크립트를 말한다 그리고 지금은 완전히 새로운 세트를 가지고 있습니다

~을 시작할 수있는 개발자의 이 기술의 이점 그리고 우리는 이미보기 시작했습니다 몇 가지 흥미로운 응용 프로그램 예를 들어, 마우스를 만들기 위해 자신의 웹 카메라를 기반으로 모델을 훈련시키는 것 그가보고있는 곳에서 다른 방향으로 이동하십시오 그래서 그가 위로 쳐다 보면 마우스가 올라갈 것입니다

그가 내려다 본다면, 마우스가 내려갈 것입니다 그가 그렇게 한 이유는 그가 시도했기 때문이었습니다 뇌졸중을 앓 았던 친구를 돕기 위해 하반신 마비가되었습니다 그래서 저에게 다시 말하기 시작합니다 데려 갈 수있는 가능성에 대해 이 기술을 개인적으로 – 무엇이 필요합니까? 특정 목적을 위해이 모델을 어떻게 훈련시킬 수 있습니까? 우리가 기술의 민주화에 관해 이야기 할 때, 우리가 그것을 모두에게 가져 오는 것에 대해 이야기 할 때, 내가 Google에서 생각하는 것 중 하나 우리가 통찰력을 가지고 그렇게해야한다는 것을 매우 염두에 두었습니다

책임감 당신은 앞으로 생각하고 싶다 그래서 내가 가진 한 가지 질문, Rajen입니다 이 서비스를 제공하기 때문에 나쁜 행위자가 당신의 서비스를 사용하려고한다면 어떻게됩니까? 그리고 어떤 안전 장치를 제공 할 수 있습니까? RAJEN SHETH : 네 그게 큰 질문입니다

그것은 우리를위한 마음의 맨 위에 있습니다 더 많은 사람들이 AI를 사용하는 것을 보았을 때, 우리는 우리가 이러한 안전 장치를 제공하고 있는지, 안전 장치인지 모범 사례 이건간에 올바른 방법으로 사용되는지 확인하십시오 한편으로는 오픈 소스와 같은 것들이있을 때 기술, 사람들을 막는 것은 매우 어렵습니다 그들이 나쁜 일을하고 싶다면 나쁜 일을하는 것 그러나 우리가 구름으로 얻게되는 이점 중 하나는 우리가 할 수있는 것입니다

우리는 서비스 또는 수용 가능한 사용 정책의 관점에서, 사람들을 확신시키는 그런 것들 이것을 올바른 방법으로 사용하고 있습니다 우리가 AI로 발견 한 것 중 하나는 우리가 그것을 재고해야한다는 것입니다 더 이상 인프라 기술이 아닙니다 우리는 그 사용법을 다시 생각해야한다 그리고 그것은 우리가 꽤하고있는 것입니다

나를 걱정하는 또 다른 일 나쁜 배우들, 사람들 무의식적으로 나쁜 일을하는 것 그들이 있다는 것을 알지도 못합니다 그리고 그것은 어떤 것들로 돌아갑니다 우리는 편향과 공정성에 대해 이야기했습니다 많은 경우 사람들은 의도하지 않습니다 편향된 것을 만들려면 그러나 그들은 결국 무언가를 창조하게됩니다

그것은 들어오는 데이터로 인해 편향되어 있습니다 그게 우리가하는 또 다른 영역입니다 꽤 많이 보았습니다 이것이 우리가 사람들을 도울 수있는 방법입니다 고객, 개발자, 이 작업을 수행 할 수있는 도구는 의도하지 않게 나쁜 모델을 생성하지 않습니까? DAPHNE LUONG : 금형 제작과 함께, 나는 사람들에게 모든 것을 훈련시키는 것도 중요하다고 생각한다

처음부터 끝까지, 끝에서 끝까지, 데이터, 다양성, 데이터에 필요한 요소 우리는 실제로 심지어 annotator를 훈련시키고, 그래서 그들은 모든 경로를 따라 다양성을 가지고 있음을 알고 있습니다 그래서 저는 그것이 중요하다고 생각합니다 다른 실무자가 이해할 수 있도록 최고의 데이터, 기계 학습을위한 모범 사례 페르난다 비 에츠 : 당연하지

JOHN PLATT : 나는 보통, 나는 생각한다 연구 관점에서 이것에 대해 왜냐하면 나는 연구원이기 때문이다 그리고 우리는 논문을 쓰고 출판합니다 우리는 매우 신중하게 생각해야합니다 우리가 종이를 쓸 때

내 말은, 의도는 세계에 긍정적 인 영향을 미친다는 것입니다 그래서 우리가 논문을 발표하기 전에, 이것이 세계에 긍정적 영향을 미칠 것인가 아닌가? 자, 항상 예측할 수는 없습니다 의도하지 않은 결과가 발생할 것입니다 기술 공개 그러나 우리는 최선을 다하려고 노력합니다

그리고 우리는 일반적으로 개방성에 편향되어 있습니다 그것은 단지 일반적이기 때문에, 우선 순위 이러한 기술을 공유하는 것이 더 좋습니다 페르난다 비 에츠 : 네 나는 스스로 연구원으로 말해야한다 나는 출판과 열린 소싱의 정신을 좋아합니다

그리고 나는 이런 분야에가 본 적이 없다 전에 전체 아이디어를 게시하는 곳 당신이 발견 한대로 그런 다음 회의에 제출합니다 나는 전에 그것을 본 적이 없었다 그리고 그것은 그것이 훌륭하다고 생각합니다

필드가 훨씬 빠르게 진행됨을 의미합니다 나는 우리가 이야기하고 있던 한 지점으로 돌아가고 싶다 이 생각이 거기 있을지도 모른다 의도하지 않은 결과가 될 수있다 또는 최선의 의도로도, 데이터가 편향된 것을 알지 못할 수도 있습니다

또는 비뚤어 지거나 뭔가있을 수 있습니다 그리고 거기에 나가고 싶은 한 가지 생각은 사람들이 데이터를 검사 할 수 있도록 도구를 작성하고, 또한 사람들의 공동체를 개방한다 이 물건들을 검사하는 사람 예를 들어, PAIR에서 우리가 한 일 중 하나는 건물 도구, 시각화 도구, 전체 데이터 세트를 시각화하여 너는 아주 쉽게 물건들을 볼 수있어 오, 이거

내 데이터의 모양입니다 이것은 배포판입니다 이것은 여성 데이터 포인트 또는 남성 데이터의 모습입니다 포인트 또는 하위 데이터 포인트 이것이 의미하는 바는 이 사용자 인터페이스는 경험, 시각화, 그것은 개발자가 이것을 볼 수있을뿐만 아니라 의미합니다

즉, 제품 관리자가이를 볼 수 있음을 의미합니다 임원, 누구나– 서로 다른 이해 관계자가 대화를 시작할 수 있습니다 같이 앉아서, 오, 나도 몰라 나는 데이터 세트에서 이상한 것을 보았다 아니면 당신이 생각할 때 우리는 어떻게 될 것이라고 생각합니까? 여기에이 차원의 패싯? 그래서 나는 너의 생각을 조금 듣고 싶다

주변에서 대화를 넓혀야하는 중요성에 대해 모두를위한 인공 지능은 대화가 아니기 때문에 개발자들 사이에서만 일어나고 있습니다 분명히 개발자는 매우 중요합니다 그러나 나는 또한 그것이 대화라고 생각한다 보다 폭 넓은 이해 관계자가 필요합니다 RAJEN SHETH : 저도 그렇게 생각했습니다

그리고 너 재미있어 이전 대화에서 이것이 얼마나 빨리 진행되고 있는지 이야기합니다 일반적으로 고객에게 내 프레젠테이션을 시작하는 한 가지 방법 첫번째 슬라이드입니다, 저는 모자이크 브라우저의 그림을 보여줍니다 1994 년 그리고 저의 요점은 우리 모두, 우리는 그것이 무엇인지 기억하십시오

그리고 그 시점 이전에, 인터넷 그 시점 이전에 매우 오랜 시간 동안 주변에 있었다 하지만 인터넷이 시작된 때였습니다 더 많은 것을 위해 더 많은 사람들에게 나가기 스포츠 점수를 확인하는 것에서부터 모든 것을 보았습니다 전자 상거래, 모든 종류의 것들

그리고 더 많은 가능성을 열었습니다 그리고 더 많은 질문을 열었습니다 페르난다 비 에츠 : 네 RAJEN SHETH : 그리고 또한 질문합니다 더 많은 도구와 도구가 필요해졌습니다

사람들을 안전하게 만드는 도구 그리고 나는 우리가 1994 년에 있다고 생각한다 우리는 지금 AI를위한 그 시점에 있습니다 그것은 수년간 그리고 수년간 사용되어 왔습니다 그러나 지금, 그것은 사용되고 있고 많은, 더 많은 방법

그래서 우리는 그런 식으로 금형에 대해 생각할 필요가 있다고 생각합니다 매일 새로운 문제가 생기기 시작합니다 그리고 매일 새로운 기술들이 나오고 있습니다 그래서 우리는 그것에 대해서 생각할 필요가있을 것입니다 개발자 커뮤니티로서 그것이 사용되는 방법과 사람들과 조화를 이루어 그것은 영향을 미치고 있습니다

존 플래트 : Rajen과 나는 단지 첫 번째 스팸 탐지기에 대해 이야기하기 우리가 1997 년에 오기 전에 나는 80 년대에 보낸 첫 번째 스팸 전자 메일을 기억합니다 새로운 문제가 생기면 문제를 해결하는 데 도움이되는 새로운 도구가 필요합니다 RAJEN SHETH : 그것은 좋은 지적입니다, 오랫동안 당신은 스팸 탐지기를 필요로하지 않았습니다 그리고 갑자기 모든 것이 일어났습니다

그리고 나서 그 도구로 작업 할 수 있어야합니다 페르난다 비에 가스 : 또 다른 측면, 또 다른 측면 대화의 폭을 넓히고, 특히 제품에 대해서도 이야기 할 때, 같은 방에 있다는 개념입니다 기술 팀, 설계 팀, 예를 들어, 그리고 당신의 PMs 등등 Google에서하는 일 중 하나가 디자이너, UXers를 참여시키는 방법을 찾고있다 처음부터 컴퓨터를 중심으로 교육 디자인 자료로 학습

문자 그대로, 어떻게 생각하십니까? 디자인 할 소재? 그리고 그것에 대해 생각한다면 그것은 매우 도전적인 자료입니다 제품의 각 사람이 약간 다른 사용자 경험이있을 수 있습니다 내 경험은 당신과 매우 다를 수 있습니다 어떤 것들은 다른 방법으로 자동화 될 수 있습니다 다른 시간에 다른 사람들을 위해

그리고 그것은 그 UX, 사용자 상호 작용, 훨씬 더 도전적입니다 그 공간은 훨씬 커집니다 그리고 다시, 우리가 모든 사람들을위한 인공 지능에 대해 이야기 할 때, 정말이 대화를 의미합니다 여러 당사자간에 발생해야합니다 우리가 다 떨어지기 전에 돌아와야 할 한가지 시간, 존,이 과학의 개념입니다

내가 생각하기에 흥미로운 점 중 하나는 주변은 기계 학습이 과학자들을위한 새로운 패러다임이 되라 마침내 우리는 확실하게 해결할 수있었습니다 이러한 새로운 도구를 사용하여 복잡한 과학적 문제 그래서 나는 왜 당신의 생각이 궁금하니? 이 인공 지능은 매우 복잡한 공간에서 그러한 차이를 만듭니다 John PLATT : 글쎄, 그것은 훌륭한 질문입니다

현재 AI 및 기계 학습의 현재 상태 여전히 매우 지각 적이다 우리는 이미지를보고 소리를 듣는 데 아주 능숙합니다 그리고 제가 전에 말했듯이 여러분은 상상할 수 있습니다 저는 수천 명의 학부생에 대해 이야기하고 싶습니다 그들은 데이터를 듣거나 볼 것입니다

그리고 이것은 과학에 대한 훌륭한 생산성 용어입니다 장기적으로는– 사람들은 이것에 대해 연구하기 시작했습니다 그러나 장기적으로 볼 때 우리가 정말로 인과 관계 모델 (causal model) 기계 학습 또는 인공 지능 알고리즘이 실제로 시도하는 곳 무엇이 무엇을 일으켰는지 이해합니다 제 말은 아직 연구 초기에 매우 초창기입니다 하지만 그것은 거의 과학의 핵심입니다

과학적 모델은 이것을 일으킨 원인을 설명합니다 그리고 당신이 인과 관계 모델이 무엇인지 안다면 당신은 추정 할 수 있습니다 그래서 저는 이것이 AI의 장기적인 추세라고 생각합니다 그러나 우리 모델은 실제로 그렇게하지 않기 때문에 아직 존재하지 않습니다 인과 관계를 아직 이해하지 못한다

페르난다 비에 가스 : 그래서 그 라인을 따라 것들 중 하나, 우리는 캠브리지에있는 우리 그룹의 객원 과학자가있었습니다 그는 지진 과학에있어 너 내가 누군지 알지 하버드 대 교수입니다 우리와 함께 1 년 반을 보냈습니다

그리고 내가 생각했던 것들 중 하나는 엄청나게 그가하고있는 일에 영감을 불어 넣었습니다 지진 과학자로서 지진을 예측하고 싶습니다 엄청나게 어렵습니다 우리는 아직 잘 할 수 없다 하지만 그가 할 수 있었던 일은

그래서 나는 지진 과학에 대해 아무것도 몰랐다 그는 이것이 나에게 과학의 종류라고 설명했다 HPC, 고성능 컴퓨팅에 살고 있습니다

거대하고 거대한 컴퓨터로 전체 주를 보낼 것입니다 매우 거칠게 계산을하고, 여진이 어디에서 일어날 지 시뮬레이션한다 지진 후에 일어난 일 캘리포니아 주민들은 네가 할거라고 확신 해 일주일이 걸리는 것을 상상해보십시오 거대한 컴퓨터에서

그는 이러한 종류의 시뮬레이션 결과를 얻을 수있었습니다 그것은 단순한 신경망을 사용하는 것만 큼 좋았습니다 너무 단순 해 신경망은 아주 간단했습니다 그것은 신경망의 종류였습니다 뉴런을 셀 수있는 곳

그것이 얼마나 간단한 지입니다 그리고 하나, 그는 기절하고 엄청나게 행복했습니다 그가 일주일 내내 기다릴 필요가 없다는 의미로 동일한 종류의 컴퓨팅 능력을 사용하여 그가하고 있었던 시뮬레이션 그래서 그 자체로 승리했습니다 그러나 더 깊은 질문과 그 중 하나 그건 나에게 많은 흥분을 안긴다

이 신경망이 정확히 무엇인지 알아내는 것입니다 우리가 알아 내지 못한 지구 물리학에 대해 아직? 그리고 우리가이 시스템이하는 일을 해석 할 수 있다면, 이 신경망이 무엇을하고 있었는지, 우리가 그것으로부터 배울 수 있다면, 우리는 더 나은 과학자가 될 수 있을까요? 그리고 과학에서 이것을보기 시작합니다 의학에서 이것을보기 시작했습니다 예를 들어, 당뇨병 성 망막증과 함께 작용하는 뇌, 이 시스템들이 등의 이미지를보고있는 곳 너의 안저, 너의 안저 그리고 그들이 이해할 수있을뿐만 아니라 당신은 당뇨병 성 망막증이 있습니다

그러나 그들은 또한 일을 할 수 있습니다 환자의 성별을 이해하는 것 심혈관 질환 위험, 사물 의사들은 반드시 그럴 필요는 없다 이 이미지들을 보라 그래서 다시, 경주의 일부는 이 시스템이 무엇인지를 이해하는 것 우리가 배울 수 없었던 것? 그래서 우리는 더 나은 의사, 더 나은 과학자가 될 수 있을까요? 이것을 사용하여? 우리가 다시 배울 수 있을까요? 우리는이 기계들로부터 귀 기울일 수 있습니까? 그래서 우리는 몇 분 남았습니다 하지만 두 가지 더 질문이 있습니다

하나는 당신을위한 것입니다, Rajen 당신은 AI의 능력에 대해 무엇을 보았습니까? 정말 기업을 돕기 위해? 나는 무엇에 대해 궁금해 가장 성공적인 사례 중 일부였습니다 그러나 또한 가장 놀라운 일부는? 그리고 너는 마치 우리가 AI를 할 수 있다는 것을 몰랐다 RAJEN SHETH : 예, 예

우리가 본 것들이 많이 있습니다 확실히 특정 산업이 있습니다 더 먼 미래입니다 물론 테크 산업은 많이 사용되고 있습니다 금융 서비스는 이미 많이 사용됩니다

그러나 많은 새로운 사용 사례가 있습니다 나는 꽤 훌륭하다고 생각합니다 제조 라인과 마찬가지로 우리가 보는 몇 가지 예입니다 비전을 사용하여 부품이 양호한 지 여부를 파악할 수 있습니까? 타이어가 공장 라인에서 내려 오는 것처럼 좋은 타이어가 될지 아니면 실제로 그 사람에게 위험을 감수해야한다 그 종류의 것들은 우리가보기 시작하는 것들입니다

소매는 또 다른 경우입니다 당신은 실제로 그것을 어떻게 만들어서 당신이 사용자의 경험을 더 좋게 만들 수 있습니까? 그래서 나는 당신에게 모범을 보일 것이다 우리는 Disney와 AutoML을 사용하고 있습니다 내 아들은 거대한 Lightning McQueen이 될 것입니다 팬, "자동차"

그리고 많은 사람들이 애들이나 가족들을 디즈니 팬들입니다 그는 디즈니 물건에 대한 탐욕스런 식욕이있다 라이트닝 맥퀸 (Lightning McQueen)과 함께 이제 우리가 개발 한 기술로, 당신은 모든 것을 쇼핑 디즈니에서 검색 할 수 있습니다 Lightning McQueen과 함께, 그것을 말하든 말든 묘사에서 또는 아닙니다

그것은 육안 검사로 할 것입니다 그런 종류의 일은 정말로 흥미 롭습니다 흥미로운 사용 사례 그래서 우리는 그것을보기 시작했습니다 내가 중요하다고 생각하는 것들 중 하나는, 그래도 우리는 사업을 시작해야 할 필요가 있다는 것입니다

그들이 생각하지 않는 곳, 이봐, 난 AI를 사용하여이 일을하고 있지만, 어디에서 사용자는 마술을 느끼고 있습니다 그리고 그것이 표지 뒤에 AI인지 아닌지는 중요하지 않습니다 그리고 그것이 내가 생각하는 것입니다 Google 포토 등으로 완성 AI에 관한 것이 아니기 때문에 그것은 정말 대단합니다 그것은 사용자 경험에 관한 것입니다

페르난다 비에 가스 : 정말 대단합니다 그래서 우리는 몇 가지 도전에 대해 이야기했습니다 일부 전략 나는 기회를 끝내고 싶다 우리는 몇 가지 기회에 대해서도 이야기했습니다

하지만 그 메모를 끝내기를 원합니다 작년에 우리는 AI가 존재한다는 것을 보았습니다 정말 흥미로운 방식으로 다양한 도메인에 적용됩니다 그래서 당신에게는 의학, 과학이 있습니다 너는 경작이있다

우리는 그러한 예들에 대해서 이야기하고있었습니다 그리고 저는 여러분 한테서 어떤 기회가 있는지 듣고 싶습니다 당신은 몇 년 동안 그러나 많은 년간 흥분하고 있습니까? 존, 너 시작하고 싶어? 존 플랫 : 좋아 음, 생물 의학 연구에 대해서 언급 하셨 잖아요 그래서 나는 그것에 대해 이야기 할 수 없다

그래서 제가 정말 흥미 진진한 다른 프로젝트에 대해 이야기하게하겠습니다 내가 전에 언급 한 것은 우리가 실제로 융합 에너지를 얻을 수 있는지 알아보기 위해 노력하고 있습니다 실제 상업적 에너지 원 화석 연료를 대체하기 위해 지금 당장은 세상이 너무 타오르다 많은 화석 연료와 대기를 넘치게한다

이산화탄소와 그래서 우리는 실제로 기계 학습을 사용하여 이 회사 인 TAE Technologies 우리는 두 가지 방식으로 도움을주고 있습니다 실험을 최적화하려고합니다 실제로 실험 설계를 돕고 있습니다

최적화를 통해 그리고 실제로 베이지안 방법을 사용하고 있습니다 그들의 기계 내부에서 플라즈마를 디버깅합니다 페르난다 비 에츠 : 오 와아 존 플랏 : 그래서 목표는 이 플라즈마를 뜨거운 태양의 중심으로

우리가 그렇게 할 수 있다면 열 손실률을 측정 할 수 있습니다 우리가 실제로 상업적으로 갈 수 있는지 확인하십시오 관련 융합, 정말, 내 생각 엔, 세상에 혁명을 일으켰습니다 페르난다 비에 가스 : 우리는 언제 그것을 기대할 수 있습니까? JOHN PLATT : 음, 나는 약속 할 것을 원하지 않습니다 저는 2019 년에 훌륭한 과학적 결과를 얻을 것이라고 생각합니다

우리는 그들이 손익분기 점화라고 부르는 것을 가지지 않을 것입니다 하지만 우리는 열을 예측하는 매우 견고한 결과를 보일 것입니다 손실률 그래서 우리는 약 1 년 후에 더 많은 것을 알게 될 것입니다 페르난다 비에 가스 : 굉장해

DAPHNE LUONG : 저에게는 두 가지 사실에 매우 흥분하고 있습니다 첫 번째 일은 계속 진행할 것입니다 실제로 구축 한 Crowdsource 기여자와 협력 다양하고 세계적으로 다양한 데이터 세트, 한 회사가 그 자체로는 건설 할 수 없다는 것, 실제로 모든 사람들을 세계를 대표하는 것에 열정적이다 우리는 소스를 열 수있는 데이터 세트를 만들 수 있습니다 모든 사람이 사용할 수 있습니다

그런 다음 기계 학습을 위해서도 마찬가지입니다 나는 밖에서 자원 봉사를 많이하기 때문에 전 세계의 사회적 기업가들과 함께, 비영리 단체에서 ML을 사용할 수 있는지 확인하고 싶습니다 일종의 대기 질 모델이나 [INAUDIBLE] 책을 할 수 있습니다 그들은 수천명을위한 서적을 만들기 위해 번역을 사용하여 다른 언어들과 모국어로 그래서 저는 그것이 흥미로운 것이라고 생각합니다 나는 그것을 고대하고 있습니다

페르난다 비 에츠 : 좋았어 RAJEN SHETH : 저를 위해서 생각합니다 내가 열정적 인 두 가지가 있습니다 하나는 건강 관리이고 다른 하나는 교육입니다 그리고 건강 관리, 바로이 아이디어 당신이 말했던 것처럼 AI 사용 가능 조기 질병 탐지를 수행합니다

당신은 한 사람에게이 놀라운 영향을 미칩니다 그리고 많은 인간들에게, 그것들과 그 주변의 가족들에게 그런 것들 그리고 저도 그렇게 생각할 수 있습니다 교육, 나는 대부분의 시간을 보낸다 여기 Google에서 교육용 제품을 연구하고 있습니다

모든 학생들이 환경을 상상할 수있는 아이디어 그들이 배우고 싶어하는 방식으로 배울 수 있습니다 자신의 페이스대로, 자신의 스타일로 – 인공 지능으로 변형 될 수있는 힘을 얻는 것 모든 개인의 잠재력을 활용할 수 있습니다 전에 불가능했던 방식으로 페르난다 비에 가스 : 나는 그걸로부터 갈거야 다시 말하지만, 정말로 TensorFlow

js와 같은 것들로 보는 영감 우리는 현재 여러 대학에 교수가 있습니다 누가 이것을 둘러싼 교육 자료를 만들고 있는지 그리고 그것이 정말로 중요하다고 생각합니다 나는 이것에 대해 정말로 흥분한다 이 기술에 진입 장벽, 그러나 그것은 또한 생각합니다

훨씬 더 다양한 세트를 치기 시작합니다 사용에 관심이있는 개발자 다른 것들을위한이 기술 우리가 아직 꿈도 꾸지 못했던 그래서 저는 그것에 대해 매우 흥분합니다 내가 생각하기에 정말 좋은 것은 기계 학습을 둘러싼 대화 방법 윤리와 공정성과 같은 것들을 접하기 시작했습니다 그리고 그것이 정말로 중요하다고 생각합니다 저는 Google에서 매우 깊이 생각합니다

이 질문들에 대해서 연구의 관점에서 볼 때, 우리가 도울 수있는 연구는 무엇인가? 이러한 문제 중 일부를 해결할 수 있습니까? 그러나 정책, 제품 – 현명한, 디자인 – 현명한, 그것은 더 넓은 대화 그래서 저는 우리 패널에 감사 할 것입니다 정말 고맙습니다 그것은 당신의 통찰력뿐만 아니라, 그러나 당신이 당신의 경험을 공유하게하기 위해서, 내가 말했듯이이 주제에 대한 Google의 여러 부분에서 오늘 우리와 함께

고맙습니다 존 플래트 : 고마워 페르난다 비 에츠 : 고마워 [음악 재생]

Google Photos Gaining New AI-Powered Actions, Features – IO 2018

지옥 오, 나는 유쓰 야 이제 나는 그 소식을 보여주고 싶다

Google AI와 관련 있습니다 그것은 Google 사진에서 사용하고 있습니다 과 이제 나는이 소식을 모든 친구들에게 보여줄 것이다 Google 포토 앱과 관련된 지식을 얻으려면 이 며칠간 우리가 알고있는 것처럼 google은 google I / O2018to를 google 사진 app에 관하여 보여주기 위하여 처리했다 사진을 흑백 배경으로 편집 할 수 있습니다

다른 앱을 사용할 필요가 없습니다 우리가 알고있는 것처럼, 구글 서비스 정말 중요하며 서비스를 사용하는 사람들이 너무 많습니다 그리고 나도 왜냐하면 무료 사용, 무제한, 매번 자동으로 사진을 백업합니다 Wi-Fi에 연결하여 사용하는 경우 신속합니다

다른 장치를 사용하여 모든 사진을 가져올 수 있습니다 모든 곳에서 심지어 기기가 Android, iOS와 함께 사용하는 경우 또는 창 또는 macOs 해당 장치가 인터넷에 연결된 경우 Google 계정에 로그인하기 만하면됩니다 더 나아가, 스마트 폰에서 누가 Google 포토를 사용하고 있는지, 모든 관리 대상을 볼 수 있습니다

이 응용 프로그램 (google 사진) 모든 촬영 한 사진을 상기시켜주는 등 매월, 짧은 비디오를 만들기 위해 수집됩니다 그리고 일부 사진은 완벽하게 편집되었습니다 당신이 당신의 사회적 플랫폼에 게시 할 수 있고, 당신이 그것을 신경 쓰지 않는다면 문제는 없습니다 Google 개발자 팀 회의에서 그것은 AI에 적용되었습니다

그것은 인공 지능을 의미합니다 그것은 완벽하게 사진을 편집 할 수있는 능력을 가지고있다 그런 인기있는 사진 모든 사람들은 항상 흑백 배경으로 편집하고 싶어합니다 또는에서 사진 이전 시간, 우리는 새 사진으로 편집 할 수 있습니다

그것은 단지 토킹이나 문서와 같은 것처럼 보입니다 우리는 그것을 스캔하고 싶습니다 우리는 Google 포토에 업로드합니다 변환하는 데 도움이 될 수 있습니다 해당 문서를 pdf 문서로 가져 오십시오

그것은 Google AI를 사용한다는 것입니다 그것은 Google의 추가 기능입니다 우리가 알다시피, 거기에 너무 많은 문서 파일 스토리지 애플 리케이션입니다 Google 드라이브와 같은 icloud와 같은 ios에 대해 이야기하면 Google 포토입니다 우리가 지킬 수있는 문서

하지만 지금 중요한 점은 Google 사진입니다 AI 기능을 추가하여 완벽한 사진으로 편집하는 데 도움이됩니다 우리는 사용할 필요가 없다 다른 앱 이제 Google 포토가 편집에 도움이됩니다

완벽한 사진으로, 그리고 앞으로 모든 사람들이 그 AI 기능을 사용할 수 있습니다 결론적으로 Google 포토는 사용자로부터 더 재미있는 것을 얻을 수 있습니다 그리고 그것은 그것의 사용자에게서 더 재미있게 될 수 있습니다 그들이 좋아하는 사진을 편집 할 수 있다면 흑백 배경을 바꿀 수 있습니다

정면은 자연색을 띤다 이 소식은 나, 그리고 너희 모두에게 너무 좋다 지금부터는 이 서비스를 아직 사용하지 않으면이 서비스를 사용하십시오 당신은 Google에서 무제한 서비스를 무료로 사용할 수 있습니다 우리는이 Google 서비스를 사용하여 사진을 저장할 수 있습니다

Google 포토에 보관하고 모든 기기의 모든 위치에서 볼 수 있습니다 로컬 장치에 보관할 필요가 없습니다 그게 내 것이니까, 고마워 나중에 우리가 알아볼 수 있도록 저장하려는 문서의 사진을 찍었습니다 문서를 PDF로 변환하고 나중에 또는 나중에 사용하기가 훨씬 쉬워집니다

당신은 흑백으로 아주 특별한 기억을 가지고 있습니다 그 순간을 색으로 재현하고 그 순간을 더욱 현실로 만듭니다