Keynote (Google I/O ’18)

좋은 아침입니다 구글 CEO 순다르 피차이 구글 개발자 연례 회의에 오신 여러분을 환영합니다 날씨가 좋네요 작년보다 좀 더 따뜻한 거 같아요 모두들 즐거운 시간 보내고 계신가요 이 자리에 와 주셔서 감사합니다 오늘 약 칠천명 정도가 와 주신 것 같은데요 여기 와 주신 분들 뿐만 아니라 전세계에서 라이브 스트리밍으로 보고 계신 분들도 있습니다 모든 분들에게 감사 드립니다 오늘 많은 얘기를 나눌 거예요 시작하기 전에 아주 중요한 사안을 먼저 해결하고 싶네요 작년 말 즈음에 제 눈길을 끈것이 있었는데 우리 주력 상품 중 하나에 중대한 버그가 있다는 것이었죠 뭐였냐면 버거 이모지에 있는 치즈의 순서가 잘못 된것이었습니다 버그를 고치느라 고생 좀 했어요 사람들이 치즈가 어디 있는지에 대해 그렇게 많이 신경 쓰는지 몰랐어요 그래서 수정했습니다 애초에 제가 채식주의자라는 게 좀 아이러니하네요 어째든 수정이 완료되었습니다 이번엔 치즈가 올바른 곳에 자리잡았기를 바랍니다 버거 이모지를 수정하다 보니 이 이모지도 거슬리더군요 왜 거품이 맥주 위에 있는지에 대해 직원들이 한 설명은 언급하고 싶지도 않네요 이제 물리법칙에 맞게 수정해두었습니다 다 잘 수정되었으니까 본론으로 들어가볼까요? 작년 개발자 회의 이후로 생긴 많은 발전들에 대해 이야기 해보죠 많은 부분에서 특별한 한 해였다는 것을 모두 동의하실 거라고 생각합니다 여러분도 느끼셨을 거라 믿습니다 우리는 지금 컴퓨팅에 있어서 중요한 변곡점에 서 있습니다 기술을 진보시키는 건 흥미진진한 일이죠 그에 따른 우리의 책임에 대해서도 많은 생각을 해 봤습니다 기술에 대한 기대는 어떤 세상에서 사느냐에 따라 혹은 어떤 기회가 주어졌느냐에 따라 굉장히 달라집니다 휴대폰 없이 성장한 저같은 사람은 분명히 기억하고 있습니다 기술에 대한 접근성이 우리의 삶을 어떻게 바꿀 수 있는지를요 우리는 세계 각지에서 일을 하면서 이를 목격할 수 있습니다 여러분은 스마트폰을 처음 접하는 사람을 보면서 알 수 있을 겁니다 그리고 우리가 보는 디지털 기술에 대한 큰 수요를 통해 느낄 수 있습니다 그게 바로 우리가 디지털 기술을 세계 각지로 보급하는데 집중하는 이유입니다 지금까지 우리는 2,500만명을 훈련시켰고 향후 5년 안에 그 숫자가 6,000만명 이상이 될 것으로 기대하고 있습니다 기술이 긍정적인 힘을 가진 것은 분명합니다 그러나 기술 혁신이 가져올 수 있는 결과에 대해 우리가 놀라기만 할 수는 없다는 것 역시 분명합니다 기술의 진보가 우리의 삶에서 수행할 역할에 대한 매우 실제적이고 중요한 질문이 있습니다 우리가 가야할 길에 대해 매우 조심스럽고 신중한 접근이 필요하다는 것을 잘 알고 있습니다 그 권리를 얻은 데 대한 깊은 책임감 역시 느끼고 있습니다 주요 과제들에 대한 우리의 신념이 바로 이것입니다 정보를 좀 더 사회에 유용하게, 접근성 있게 그리고 유익하게 만드는 것입니다 하나의 기업체로서 영원한 과제를 가진다는 것이 행운이라고 생각합니다 처음 시작했을 때만큼이나 오늘날과도 이어져 있는 느낌이거든요 우리의 과제에 접근함에 있어서 새로운 활력소와 함께 한다는 사실에 흥분됩니다 AI에서의 성장 덕분이죠 AI는 우리에게 새로운 길을 제시해 줬습니다 전세계 사용자들의 문제를 해결 하는데 있어서요 작년 개발자 회의에서 구글 AI를 발표했습니다 우리 팀이 열심히 노력한 결과였죠 AI의 편리함을 모두와 나누기 위해서 말입니다 저희는 전세계적으로 보급하고 싶기 때문에 세계 곳곳에 AI 센터를 만들었습니다 AI는 앞으로도 많은 분야에 영향을 주게 될 겁니다 오늘 그 예시를 몇 개 보여드리겠습니다 AI가 변형시킬 중요한 분야 중 하나가 건강 관리 분야입니다 작년에 당뇨병성 망막증과 관련한 작업을 발표했습니다 이것이 실명의 주요 원인입니다 구글은 의사의 더 빠른 진단 돕기 위해 딥 러닝 기술을 적용했습니다 그 때부터 계속 현장 시험을 해왔습니다 인도의 아라빈드 병원과 산카라 병원에서 이루어졌죠 현장 시험 결과는 매우 좋았습니다 전문의가 드문 지역에서 전문적인 진단을 내릴 수 있게 해 줬습니다 같은 망막 스캔을 봐도 사람이 찾아낼 수 없는 것들을 AI는 찾아낼 수 있다는 것을 알 수 있었습니다 같은 홍채 인식을 통해서 AI는 더 많은 정보들을 얻을 수 있었습니다 이를 통해 5년 내에 심장마비나 뇌졸중 같은 유해 심혈관 관련 질병의 발병을 예상할 수 있었습니다 제가 흥미롭게 생각한 점은 의사가 홍채 검사로 발견할 수 있는 것보다 머신 러닝을 통해 발견할 수 있는 것이 더 많다는 것입니다 이 기술은 심혈관계 질환을 수술 없이 발견하는 데 초석이 될 수 있습니다 현재도 진행중이며 최근 연구 결과를 발표했습니다 또한 협력사들과 함께 이를 현장에 적용시키려 작업하고 있습니다 AI가 도울 수 있는 또 다른 분야는 의사를 도와서 질병을 예측하는 것입니다 의사들은 다양하고 많은 어려움에 직면하고 있습니다 그런 의사들을 위해서 예고를 해 주는 거죠 24시간에서 48시간 이내에 환자가 매우 아프게 될 것 같다 이런 예고는 중대한 차이를 가져올 수 있습니다 그래서 머신 러닝 시스템으로 작업을 진행했습니다 협력 업체들과 함께 일했습니다 익명의 의료 기록들을 이용했습니다 그리고 각 환자별로 십만개가 넘는 정보를 분석하면 어떤 의사도 혼자서 분석할 수 없는 양이죠 AI가 양적으로 재입원의 가능성을 추측할 수 있다는 것을 알아 냈습니다 기존 방식보다 24시간에서 48시간 빠르게요 의사에게 행동할 시간을 좀 더 많이 줄 수 있습니다 이와 관련한 자료를 오늘 오후경에 게재할 예정입니다 우리와 함께 일할 병원이나 의료기관을 찾고 있습니다 AI가 도울 수 있는 다른 분야는 접근성 분야입니다 일상적인 사용 사례를 훨씬 쉽게 만들 수 있습니다 흔한 사용사례를 들어 볼게요 밤에 집에 오면 TV를 켜잖아요 종종 두 명 혹은 그 이상의 사람들이 서로에게 열정적으로 대화를 하는 화면을 보실 겁니다 잘 들리지 않는 부분을 들으려고 자동 생성 자막에 의존해서 무슨 말을 하는지 본다고 상상해보세요 아마 이런 장면을 보게 될 겁니다 보시다시피 알아 보기가 힘들죠 무슨 말을 하는 지 알기 어렵습니다 그래서 '루킹투리슨'이라 불리는 머신 러닝 기술이 있습니다 청각 신호만을 알아듣는 것이 아니라 시각 신호와 청각 신호를 결합하여 두 음성을 명확히 구분해 줍니다 어떻게 작동하는 지 보실까요? 유튜브 영상이라고 생각해보세요 그는 대니 에인지 수준은 아닙니다 그렇지만 콜란젤로보다는 낫죠 그러니까 그는 알아들을 수 있습니다 고의로 져도 괜찮다고 말한 겁니까? 지금 고의로 지는 것이 괜찮다고 말했을 뿐만 아니라 팬들한테 다 알려준 거죠? 이래도 괜찮다고 당신이 괜찮다고 했잖아요! 더 이상 말 할것도 없네요 우리는 말 할게 많이 있죠 중요한 일상적인 사용사례에 어떻게 기술을 접목하여 훨씬 더 편리하게 만들 수 있는지 보셨습니다 기술의 위대한 점은 끊임없이 발전한다는 것입니다 사실 머신 러닝은 200년 전 기술인 모스부호에도 적용시킬 수 있습니다 그리고 누군가의 삶의 질에 영향을 줄 수 있죠 한 번 보실까요? 안녕하세요 저는 타냐입니다 이것이 제 목소리 입니다 저는 머리 근처에 고정되어 있는 스위치로 점과 대시를 클릭해서 모스부호를 사용합니다 제가 어릴때에는 의사소통단어판을 사용했습니다 단어를 가리키기 위해 머리에 달린 막대를 사용해야만 했습니다 굉장히 재미있었습니다 진심으로요 모스부호가 처음 제 삶에 들어왔을 때 순수한 해방과 자유를 느낄 수 있었습니다 이따 봐요 사랑해요 아마 그게 제가 스카이 다이빙을 매우 좋아하는 이유인 것 같습니다 같은 해방감과 자유를 느끼거든요 스카이 다이빙을 통해서 제 하나뿐인 사랑인 켄을 만났습니다 그 역시 저와 사랑에 빠졌죠 정말 굉장히 힘든 일이었습니다 모스부호를 시험해 보기 위해 모스부호 장비를 찾는 건 힘들었어요 그래서 직접 만들어야만 했습니다 켄의 도움으로 제 목소리를 가질 수 있었습니다 또한 제 일상의 독립성도 향상 되었죠 하지만 대부분의 사람들 곁엔 켄과 같이 도와주는 사람이 없죠 그래서 G보드 팀과 협력하고 싶습니다 모스부호를 사용하는 자유를 만끽하길 희망하는 사람들을 도와주기 위해서요 G보드는 구글 키보드입니다 G보드에서 일하면서 알게 된 건 전세계적으로 그러니까 수천만명의 사람들이 살면서 본인들의 언어로 된 키보드를 가지지 못 했다는 사실입니다 구글은 타냐와 함께 모스부호를 지원하는 G보드를 만들었습니다 이것은 일종의 입력 양식입니다 모스부호를 입력하면 추측과 제안을 통해 문자가 출력됩니다 좋은 머신 러닝 예시라고 생각합니다 머신 러닝을 이용해서 실제로 누군가를 도와줄 수 있습니다 인공 지능이 없는 평범한 키보드는 할 수 없는 일이죠 이 여정을 계속할 수 있어서 매우 행복합니다 아주 많은 사람들이 이로 인해 혜택받을 거예요 그게 저를 무한히 전율시킵니다 고마워요 타냐 다른 사람들이 그들의 목소리를 찾게 당신의 목소리를 사용해줘서 매우 인상적인 이야기입니다 타냐와 켄을 이 자리에 모실 수 있어서 매우 영광입니다 타냐와 켄은 실제로 개발자로서 프로젝트에 기여했습니다 G보드에 포함된 실제 예측 제안의 힘을 모스부호의 문맥에서 사용 하기 위해 직접 구글 팀과 함께 개발에 참여했습니다 모스부호 기능이 포함된 G보드의 베타 버전이 오늘 오후경 이용가능 하다는 사실에 정말 기쁩니다 AI와 함께 제품을 재창조할 수 있어서 너무 좋습니다 G보드가 훌룡한 예시죠 매일매일 80억개가 넘는 자동 완성을 우리가 사용자에 제공하고 사용자는 그를 선택합니다 우리 주력 상품 중 하나를 AI를 이용해서 재설계한 또 다른 예시는 G메일입니다 G메일이 새롭고 신선한 외관으로 최근에 바뀌었잖아요? 최근에 이루어진 재설계입니다 여러분이 만족하시면서 쓰시고 계신다면 좋겠네요 G메일의 또 다른 기능을 보여드리겠습니다 스마트 작성이라고 부릅니다 이름에서 알 수 있듯이 머신 러닝을 사용해서 여러분이 타자를 칠 때 문구를 제안해주는 거죠 여러분이 할 일은 탭을 누르고 자동 완성을 하는 것 뿐입니다 화요일에 타코 먹기 자클린 안녕 못 본 지 좀 됐네 잘 지내고 있지? 조만간 만나서 타코 먹는 거 어때? 니가 나쵸랑 살사소스 가져오면 내가 과카몰리 만들게 이 메일에서 제목이 화요일에 타코 먹기라는 것을 인지하고 칩, 살사 소스, 과카몰리를 제안하고 있고요 주소같은 일반적인 것들도 자동으로 처리합니다 그래서 여러분이 걱정할 필요가 없죠 뭐라고 쓰고 싶은지에만 집중하면 됩니다 저는 이 기능을 즐겨 씁니다 이 기능으로 회사에 많은 메일을 보냈어요 회사가 뭐라고 생각할 지는 모르겠지만요 굉장히 좋았습니다 이번 달 내로 스마트 작성을 출시할 예정입니다 여러분 모두 좋아하시기를 바랍니다 다음 제품은 개발 단계부터 AI를 활용해서 만든 서비스인데요 바로 구글 포토입니다 아주 잘 작동되고 있고 점점 더 나아지고 있습니다 사진 중 하나를 클릭하는 것을 사진 뷰어 경험이라고 부릅니다 한 번에 한 장의 사진만을 보는 거죠 사진 서비스 규모에 대한 부연설명을 드리자면 매일매일 50억 장이 넘는 사진이 사용자들에 의해 클릭됩니다 매일매일이요 우리는 AI가 그런 상황에서 쓰이기를 바랐습니다 새로운 기능인 행동 제안입니다 사소한 행동들을 제안해주는 거죠 사용자가 행동하는 맥락 안에서요 예를 들어보겠습니다 결혼식에 다녀 왔다고 가정하죠 찍은 사진들을 살펴보겠죠 구글포토가 사진 안에 당신의 친구인 리사가 있다는 것을 인식하고 그러면 리사와 함께 찍은 사진 세 장을 공유하지 않겠느냐고 제안하는 거죠 한 번의 클릭으로 그 사진들을 리사에게 보낼 수 있습니다 모두들 자기 휴대폰으로 사진을 찍으려고 하잖아요 그걸 개선할 수 있는 거죠 예를 들어보겠습니다 같은 결혼식입니다 사진의 노출이 부족하면 우리 AI가 제안하는 거죠 지금 밝기를 조절하라구요 탭 한 번만 해주면 저절로 적절하게 밝기를 조절해 줍니다 혹은 여러분이 나중에 다시 보려고 서류를 찍어 두었다면 구글 포토가 이를 인식하고 서류를 PDF파일로 변환할 수 있습니다 그래서 나중에

나중에 쓰기 훨씬 편하게요 이런 간단한 일들을 즐겁게 만들고 싶었습니다 한편으로는 AI가 예상치 못한 상황을 선사할 수도 있습니다 예를 들면 아이를 귀엽게 찍은 사진을 가지고 있습니다 더 좋은 사진으로 만들어 줄 수 있어요 배경색을 없애고 아이의 색을 튀게 만들어 줍니다 아이를 한 층 더 귀엽게 해 주죠 아니면 아주 특별한 순간 있잖아요 흑백 사진으로 저장된 순간이요 어머니나 할머니의 사진일 수도 있죠 구글포토는 색을 입혀서 그 순간을 재창조 할 수 있습니다 좀 더 현실적이고 특별한 순간으로 만들어 줍니다 이 모든 구글 포토의 새 기능은 몇 달 이내에 출시될 예정입니다 이런 작업이 가능한 이유는 한동안 우리가 연산형 아키텍처의 규모에 많은 투자를 해왔기 때문입니다 작년에 텐서 프로세싱 유닛에 대해 말했던 것도 같은 이유입니다 특수 목적 머신 러닝 칩들입니다 오늘날 우리가 보고 있는 모든 제품의 개선을 만들어냈죠 이를 클라우드 소비자들에게도 이용 가능하게 만들었습니다 작년 이후로 우리는 열심히 일했습니다 그래서 오늘 차세대 TPU 30을 발표하게 되어 기쁩니다 이 칩들은 너무 빨라서 사상 처음으로 우리 데이터 센터에 액체 냉각 시스템을 도입해야만 했습니다 이 칩을 거대한 포드에 연결해서 각각의 포드들은 작년보다 8배 이상 빨라졌습니다 100 페타플롭스를 가뿐히 넘는 속도죠 덕분에 우리는 더 좋은 모델 더 큰 모델, 더 정확한 모델을 만들 수 있습니다 더 큰 문제들을 해결하는 데 도움을 주기도 하죠 AI를 다루면서 생긴 주요 문제 중 하나는 구글 어시스턴트입니다 우리가 바라는 완벽한 어시스턴트는 자연스럽게 대화할 수 있고 필요할 때 도움을 제공하며 현실의 일을 해결하게 해 주는 것입니다 이것을 더 좋아지게 만드는 작업을 하고 있습니다 어시스턴트가 자연스럽고 편안하게 대화할 수 있기를 원합니다 그러기 위해서는 구글 어시스턴트의 기초부터 시작해야겠죠 바로 음성입니다 오늘날 대부분의 사용자들이 어시스턴트와 상호작용하는 수단이죠 지금 음성은 '홀리'라고 불립니다 진짜 사람이죠 우리 스튜디오에서 몇 달간 머물렀습니다 녹음한 것들을 이어 붙여서 음성을 만들었습니다 하지만 18개월 전에 딥마인드 팀이 찾아낸 돌파구를 발표했죠 웨이브넷입니다 현재 체계와는 다르게 웨이브넷은 좀 더 자연스러운 음성을 만들기 위하여 실제 근본이 되는 로우 오디오를 만들어 냅니다 사람이 말하는 것과 흡사하게요 음의 높이, 속도 심지어는 말사이의 공백까지 따라해서 의미를 전달해 줍니다 그 모든 것을 가능하게 하고 싶었습니다 웨이브넷으로 열심히 작업했습니다 오늘부터 구글 어시스턴트에 6개의 새로운 음성이 추가됩니다 함께 인사 해 볼까요? 좋은 아침입니다 저는 당신의 구글 어시스턴트입니다 쇼어라인 앰피씨어터에 오신 것을 환영합니다 구글 개발자 회의를 즐기시기를 바랍니다 순다르씨에게 마이크를 넘깁니다 우리의 목표는 언젠가 전세계적으로 올바른 강세, 언어, 사투리를 구사하는 겁니다 웨이브넷이 이를 훨씬 쉽게 만들어 줍니다 이 기술을 활용하면서 어떤 놀라운 음성을 가진 분을 스튜디오로 모시면 좋을지 고민했습니다 한 번 보시죠 쿠스쿠스 북아프리카 세몰리나와 듀럼 밀을 빻아서 나온 작은 알갱이 형태의 음식 다정한 눈과 복슬거리는 꼬리에 내 하이쿠를 좋아하는 강아지를 원해 누구나 그렇지 않나? 생일을 맞은 당신의 생일을 축하합니다 생일 축하합니다 존 레전드 자랑하기 싫다고 얘기하겠지만 당신이 들은 것 중 최고의 어시스턴트가 될 겁니다 어디 사는지 말해 줄수 있나요? 각종 기기에서 저를 찾을 수 있습니다 휴대폰, 구글 홈 그리고 제게 행운이 따른다면 당신의 마음에서도요 네, 존 레전드의 음성이 어시스턴트로 나옵니다 존이 여러분이 물을 만한 모든 예상 질문에 답하면서 계속 스튜디오에 있지 않았던건 분명합니다 웨이브넷은 스튜디오에서 보내야 하는 시간을 줄이고 모델이 존의 다양한 목소리를 포착할 수 있게 했습니다 존의 음성은 올해 말에 특정 상황에 맞게 나올 예정입니다 여러분이 이런 대답을 들을 수 있게요 좋은 아침입니다 순다르씨 지금 마운틴 뷰의 하늘은 맑고 기온은 섭씨 18도입니다 오늘은 24도까지 올라갈 것으로 보이고 날씨는 화창할 예정입니다 오전 10시에는 구글 개발자 회의 기조 연설 일정이 있고 그리고 오후 1시에는 마가리타를 마실 예정입니다 좋은 하루 되십시오 오후 1시가 기다려지네요 존의 음성은 올해 하반기에 나올 예정입니다 AI와 함께 이런 진보를 이룰 수 있어서 정말 기쁩니다 구글 어시스턴트에는 더 많은 업그레이드가 있을 겁니다 그에 관해서 좀더 이야기해볼까요? 스콧을 무대 위로 모시겠습니다 헤이 구글 매디한테 전화 해 줘 네, 지금 전화합니다 헤이 구글 식사 4명 예약 해 줘 알겠습니다 헤이 구글 동생한테 전화해 줘 헤이 구글 형한테 전화해 줘 캐롤한테 문자해 줘 날 위해서도 캐롤에게 문자해 줄래? 헤이 구글 누가 나한테 문자했어? – 요 구글 – 컷! 케빈, 정말 좋았는데요 우리가 아직 '요 구글'은 못 만들어서요 '헤이'라고 해야 해요 헤이 구글 헤이 구글! 시아 노래 재생해 줘 헤이 구글 다음 편 재생해 줘 넷플릭스에서 크라운 재생해 줘 채닝 테이텀 나온 영화 전부 재생해 줘 알겠습니다 – 요 구글 – 컷! 잘 하셨는데요 제발 한 번만 '헤이 구글'이라고 해 주시면 안 될까요? 헤이 구글 내 휴대폰 찾아 줘 지금 찾고 있습니다 와! 헤이 구글 헤이 구글 헤이 구글! 요 구글 앞문 잠가 줘 컷! 좋아요 그럼 그냥 요 구글로 가죠 아마 기술자들은 그게 뭐든 업데이트하는 걸 좋아하겠죠 요 그냥 헤이 구글이라고 말하고 구글이 하게 하세요 안녕하세요 무었을 도와 드릴까요? 구글 어시스턴트 개발 총책임자 스콧 허프만 2년 전에 바로 이 연례 회의에서 구글 어시스턴트를 발표했습니다 오늘날 어시스턴트는 5억여개의 기기에서 이용 가능합니다 휴대폰, 스피커, 헤드폰 TV, 시계 그리고 그 외의 기기들을 포함해서요 40개가 넘는 자동차 브랜드의 자동차에서도 가능합니다 커넥티드 홈 디바이스 5천여개에서도 작동합니다 식기세척기부터 초인종까지요 전세계 사람들이 매일 어시스턴트를 쓰고 있습니다 예를 들면 우리는 작년에 인도에서 어시스턴트를 출시했습니다 반응이 정말 엄청났습니다 일일 사용량은 올해 초의 세 배가 됐습니다 올해 말까지 어시스턴트가 30개의 언어를 지원하고 80개국에서 이용 가능해 질 겁니다 대단한 진보를 이룬 거죠 그렇지만 아직 시작에 불과합니다 오늘 여러분에게 알려드릴 소식은 어시스턴트가 좀 더 자연스럽게 대화하고 시각적으로 나아질 중요한 방법입니다 여러분이 좀 더 많은 일을 하고 여유 시간을 가질 수 있도록요 피차이CEO가 말했다시피 이제 구글 어시스턴트에서 새로운 음성들을 선택할 수 있습니다 어시스턴트와 좀 더 자연스럽게 대화하기 위해서 중요한 요소죠 그러나 훌륭한 대화 상대가 되기 위해서 어시스턴트는 대화의 사회적 역동성을 깊게 이해해야만 합니다 예를 들어 보겠습니다 솔직히 말해서 어시스턴트가 내 말을 듣게 하고 싶을 때마다 '헤이 구글'이라고 말하는 건 조금 짜증나지 않나요? 여러분이 유튜브에서 보셨을 수도 있는 이 할머니는 분명히 그렇게 느끼고 계십니다 구구! 헤이 구구! 구구! 헬로우 구구! 헤에이 구구 오케이 구구 – 날씨가 어떨지 궁금하대 – 내일 날씨가 내일 날씨가 플래글러 해변의 내일 날씨는 소나기가 내릴 예정이며 기온은 최고 18도, 최저 13도입니다 어시스턴트가 결국 할머님을 위해서 일하긴 했네요 그렇지만 이렇게 힘들어서는 안 되잖아요 이제는 매번 '헤이 구글'이라고 하지 않아도 됩니다 확인해 보시죠 헤이 구글 워리어스가 이겼어? 네, 워리어스가 118 대 92로 이겼습니다 저번 일요일이었고 상대는 펠리칸스였습니다 좋았어! 다음 게임은 언제야? 워리어스의 다음 게임은 오늘 오후 7시 30분입니다 상대 팀은 펠리칸스입니다 고마워 오늘 밤 경기는 재밌겠어 내가 집에 가면 케빈 듀란트 저지 찾으라고 말해줘 알겠습니다 집에 도착하면 말씀 드리겠습니다 제가 자연스럽게 오고 가는 대화를 했다는 걸 눈치채셨나요? 어시스턴트와 대화하면서 후속 요청마다 '헤이 구글'이라고 반복할 필요가 없었죠 훨씬 더 유용한 건 제 어시스턴트가 어시스턴트에게 말하는 것과 여러분에게 말하는 것을 구분할 수 있다는 겁니다 이것을 지속되는 대화라고 부릅니다 가장 요청이 많이 들어온 기능이었습니다 이 기능은 다음주부터 사용 가능 합니다 경기 시간이 다가왔다고 가정해봅시다 헤이 구글 워리어스 경기 켜 주고 팝콘 기계 시작 해 줘 네 유튜브 TV에서 하는 골든 스테이트 워리어스 게임입니다 팝콘 기계 작동시켰습니다 그리고 거실이랑 주방 불 좀 어둡게 해 줘 알겠습니다 거실과 주방 조명을 낮춥니다 이 두 예시에서 제가 한 번에 여러 가지를 요구했다는 걸 알아차리셨나요? 우리한테는 굉장히 자연스러운 일이죠 하지만 컴퓨터가 이해하기는 어려운 일입니다 이것을 다중 액션이라고 부릅니다 이 기능은 지금부터 어시스턴트에서 사용 가능합니다 여러분이 어쩌면 '이게 어려운가?' '-고' 같이 연결어만 찾으면 되잖아' 라고생각할 수도 있는데요 하지만 언제나 그렇게 간단한 일은 아니죠 이 예시에서 '와'가 포함되어 있지만 두 가지 질문이 아니라 사실 하나의 질문이거든요 워리어스와 펠리칸스 중에 누가 이겼지? 하지만 이 예시는 워리어스와 펠리칸스의 선수 명단은? 방금 전의 예시와 비슷해 보이지만 어시스턴트가 문장을 분해해야만 두 가지 질문을 찾아낼 수 있습니다 언어학에서 대등 구조 축소라고 불리는 현상입니다 -워리어스의 선수 명단은? -펠리칸스의 선수명당은? 다중 액션은 더욱 복잡한 방식도 이해할 수 있습니다 그럼 재미를 위해서 헤이 구글 케빈 듀란트가 드래프트되었을 때 누가 캘리포니아의 주지사였지? 그리고 어떤 팀이 그를 드래프트 해갔지? 2007년 주지사는 아놀드 슈왈츠제네거였습니다 시애틀 슈퍼 소닉스가 케빈 듀란트를 드래프트했습니다 좋습니다 혹시 궁금해하실까봐요 감사합니다 다음 이야기를 해 보죠 우리가 연구한 또 다른 건 가정용 구글 어시스턴트의 대화 기능 향상입니다 작년 가을에 구글 어시스턴트의 가정용을 출시했습니다 가족끼리 하기 좋은 게임이나 활동, 이야기들을 제공해줍니다 우리는 책장을 계속 확장했습니다 가족들은 13만 시간이 넘는 동화를 청취했습니다 지난 두 달만 세어 봐도요 가족들을 위한 일을 계속해서 개선해 나가다 보니 많은 부모님들이 걱정을 했습니다 우리 팀에 있는 자녀를 가진 사람들도 그랬죠 아이들이 너무 오만하고 요구만 하게 된다는 겁니다 그냥 '헤이 구글'이라고 말하고 원하는 걸 시키기만 하면서요 이건 접근하기 쉬운 영역이 아니죠 하지만 우리가 한 걸음 내딛었는데 프리티 플리즈라는 기능입니다 아이를 가진 직원 몇몇이 직접 실험해봤습니다 한 번 보시죠 헤이 구글 (불명확함)에게 말해줘 아빠 '주세요'라고 말해야지 오케이 구글 이야기 하나만 해주세요 '주세요'라고 말해주셔서 감사합니다 프리즈 댄스 재생해주세요 정말 상냥하게 부탁하시네요 이야기 하나만 말해주세요 친절하게 부탁해주셔서 감사합니다 옛날 옛날에 괴짜 바다코끼리가 살았습니다 제 숙제 좀 도와주세요 제발요 – 제발 – 제발요 당신은 정말 예의바르시군요 나도 알아요 보신 것처럼 어시스턴트가 정중함이 더해진 긍정적인 대화를 이해하고 반응하는 거죠 가족들과 아동 발달 전문가와 상의하며 일해왔습니다 프리티 플리즈를 올 해 하반기 이내에 가족용 선택사항으로 만들 예정입니다 어시스턴트를 위한 새로운 목소리들부터 지속되는 대화 다중 액션, 프리티 플리즈까지 AI가 우리가 크게 도약하는데 도움을 주고 있습니다 그래서 모두가 좀 더 자연스럽게 어시스턴트와 대화할 수 있습니다 이제 릴리안을 소개하겠습니다 우리가 하고 있는 재밌는 일들을 알려주실 분입니다 음성와 영상 어시스턴트를 통합한 것과 관련해서요 스콧 감사해요 좋은 아침입니다 구글 어시스턴트 프로덕트 매니지먼트 디렉터 릴리안 링콘 지난 몇 년 동안 어시스턴트는 구두 대화에 집중해왔고 그 결과를 구글에서 보고 계십니다 오늘 새로운 비쥬얼 캔버스를 공개하도록 하겠습니다 화면용 구글 어시스턴트입니다 풍부한 시각 자료들과 단순한 목소리를 결합했습니다 매기를 무대 위로 불렀습니다 라이브 데모 버전을 오가면서 보여드릴 예정이거든요 새로운 스마트 디스플레이의 초기 버전 기억하시나요? 이번 1월에 CES에서 보여드렸습니다 우리는 최고의 소비자 가전 브랜드와 협업을 하고 있습니다 오늘 첫 번째 스마트 디스플레이가 오는 7월에 판매될 예정임을 말씀드리게 되어 기쁩니다 오늘 저는 이 새로운 장비가 여러분의 일상을 더 쉽게 만들어 주는 방법을 보여드리겠습니다 음성의 간결성을 터치 스크린의 한 눈에 알아보기 쉬운 속성과 결합해서 말이죠 라이브 데모 버전을 보실까요? 이 기기는 레노버 스마트 디스플레이입니다 은은한 화면에 구글 포토와 결합되어있습니다 제 아이들 사진이 제게 인사하네요 벨라와 허드슨은 진짜 제 아이들입니다 매일 아침을 시작하는 최고의 방법이죠 기기가 제 목소리에 통제되기 때문에 간단한 명령어만으로 영상이나 실시간 TV를 볼 수 있습니다 집 안에서 다른 일을 하면서 제가 제일 좋아하는 프로그램을 놓치지 않게 해 주는 간단한 방법이죠 헤이 구글 지미 키멜 라이브 보여 줘 알겠습니다 유튜브 TV에서 지미 키멜 라이브를 재생합니다 재밌는 일이 있었어요 제가 실제로 겪은 일인데요 오늘 아침에 딸들을 학교에 태워다 주고 있는데 바로 이렇게요 여러분은 유튜브 TV에서 멋진 프로그램들을 볼 수 있는데요 지역 뉴스나 실시간 스포츠 경기부터 아주 많은 프로그램들이 있습니다 이러한 것을 스마트 디스플레이에서 이용하실 수 있을 겁니다 물론 유튜브의 평범한 컨텐츠들을 즐기고 싶으실 수도 있죠 초보자를 위한 영상이나 음악, 새로나온 시리즈 코브라 카이 같은 독자적인 컨텐츠 같은 것 말이죠 정말 재미 있어서 이번주 부터 보기 시작 했습니다 요리는 음성과 화면의 결합이 정말로 유용하게 쓰이는 또 다른 예죠 닉과 저는 간단한 가정용 요리법을 즐겨 봅니다 헤이 구글 피자 밤 레시피 좀 보여 줘 알겠습니다 레시피들을 불러왔습니다 테이스티의 첫 번째 레시피를 선택해죠 맛있어 보이네요 구체적인 레시피가 바로 보이고 요리 시작하기를 탭해주면 됩니다 알겠습니다 테이스티의 레시피입니다 이처럼 시현 영상을 보는 동시에 음성 안내를 들을 수 있습니다 이러한 기능들은 요리에 있어서 혁명과 같습니다 특히 두 손이 뭔가를 하고 있을 때 유용하죠 고마워요 매기 스마트 디스플레이를 활용한 몇 가지 방법으로 가정 생활을 쉽게 만들어봤습니다 훨씬 더 다양한 것들이 남았습니다 방송이나 듀얼 영상 전화를 하면서 가족들과 계속 연락을 하는 것부터 다른 스마트 홈 파트너들을 통해서 계속 집 안 상황을 파악하는 것이나 구글 지도를 통해 아침 출근길을 미리 확인해 보는 것까지요 구글의 제일 좋은 것들을 결합하고 전세계의 개발자 및 협력자들과 작업하여 음성과 영상을 한 데 모아 완전히 새로운 생활방식을 가져올 겁니다 스마트 디스플레이에 고무되어 화면용 어시스턴트에 대해 다시 한 번 생각해봤습니다 우리와 언제나 함께 하는 화면인 휴대폰에 대해서요 휴대폰에서 어시스턴트가 작동하는 방식을 잠깐 보여드릴게요 얼마나 실감나고 상호 작용하며 주도적으로 작동하는 지 보시죠 또 다른 라이브 데모 버전을 볼 건데요 헤이 구글 카밀라 카베요에 대해서 말해줘 위키피디아에 따르면 카를라 카밀라 카베요 에스트라바오는 미국의 가수이자 작곡가입니다 보시다시피 화면의 장점을 활용해서 풍부하고 몰입되는 대답을 합니다 다른 예시입니다 난방 좀 줄여 줘 알겠습니다 거실의 온도를 낮춥니다 스마트 홈에서 여러분은 그저 손가락 하나로 모든 제어를 할 수 있습니다 제가 제일 좋아하는 걸 보여 드릴게요 헤이 구글 스타벅스에서 내가 매일 주문하는 거 주문해 줘 안녕하세요 스타벅스에 다시 와 주셔서 감사합니다 톨 사이즈의 무지방 라떼에 카라멜 드리즐 올려서 한 잔 맞으시죠? 다른 건 필요 없으신가요? 아니요 괜찮아요 그러면 항상 방문하시는 매장에서 가져가실 건가요? 여기서 '네'를 탭합니다 네 주문 접수되었습니다 조금 이따 만나요 어때요? 우리와 협업하는 브랜드는 스타벅스 던킨 도넛, 도어대시, 도미노 그리고 그 외에 많은 동업자들이 음식 방문 포장 및 배달 업계에 있고 구글 어시스턴트와 함께 합니다 몇몇 브랜드들은 이미 사용 가능하고 앞으로 더 많은 브랜드들이 가능할 예정입니다 요구 사항에 대해 훌륭하게 상호작용하는 대응은 정말 도움이 됩니다 하지만 제 이상적인 어시스턴트는 주도적으로 도울 수 있어야 합니다 지금 어시스턴트에 들어와 있는데 여기서 화면을 위로 밀어 올리면 제 하루를 시각적인 스냅 사진으로 확인할 수 있습니다 유용한 제안들도 볼 수 있죠 시각과 위치, 심지어는 어시스턴트와 최근 한 대화에 근거해서요 알림들, 택배들 노트와 목록들까지 모두 있고 잘 정돈되어서 바로 볼 수 있습니다 저는 이런 사소한 것들을 유용하게 관리하고 쉽게 볼 수 있는 편리함을 사랑합니다 이 새로운 휴대폰용 시각 경험은 AI 중심으로 디자인되었습니다 이번 여름에 안드로이드에서, 하반기에 iOS에서 출시됩니다 때때로 시각적 측면을 낮춤으로써 어시스턴트가 더욱 더 실제로 유용하게 쓰이기도 합니다 차 안에 있다고 해 봅시다 운전에 집중해야겠죠 직장에서 집을 향해 가는 길입니다 러시 아워임에도 최단 거리를 보여주는 구글 지도가 있습니다 헤이 구글 닉한테 내 예상도착시간 보내주고 힙합 틀어 줘 알겠습니다 닉에게 20분 뒤 도착한다고 알립니다 유튜브에서 힙합 음악을 검색합니다 남편에게 예상도착시간을 알리는 게 간단한 음성 명령어만으로 가능하니까 정말 편리하죠 구글 지도 네비게이션에 어시스턴트가 장착될 겁니다 이번 여름부터요 스마트 디스플레이, 휴대폰을 거쳐서 지도까지 둘러봤습니다 구글 어시스턴트가 어떻게 활용될 지 느낌이 오시나요 좀 더 시각적 도움이 되는 방법으로요 언제 음성으로 응답할지 그리고 언제 좀 더 몰입하여 대화를 나눌지 알아차릴 수 있습니다 이제 피차이CEO에게 다시 마이크를 넘깁니다 감사합니다 고마워요 릴리안 우리 어시스턴트의 진척사항을 보니 기분이 좋네요 아까 말했지만 우리의 어시스턴트 비전은 여러분이 일을 끝내게 돕는 것입니다 일을 하는 것의 큰 부분이 전화를 거는 것이더라구요 엔진 오일 교환 일정을 잡고 싶을 수도 있고 주중에 배관공에게 연락하고 싶을 수도 있고 미용실 예약을 하고 싶을 수도 있습니다 그런 순간에 사용자를 돕기 위해서 열심히 연구했습니다 사용자들과 사업을 좋은 방식으로 연결하고 싶었습니다 사업은 사실 예약에 많이 의지하죠 하지만 심지어 미국에서도 소기업의 60%는 온라인 예약이 불가능합니다 AI가 그런 문제를 도와줄 수 있을 것이라 생각했습니다 이 예시를 봅시죠 구글에게 화요일에 미용실 예약을 부탁하고 싶다고 해보죠 오전 10시에서 12시 사이에요 무슨 일이 일어날 거냐면 구글 어시스턴트가 여러분을 위해 매끄럽게 전화를 해 예약 하는 것입니다 지금부터 들으실 것은 구글 어시스턴트가 실제 미용실 직원에게 전화를 해서 예약을 하는 내용입니다 들어보시죠 여보세요 무엇을 도와드릴까요? 여보세요 제 고객의 컷트 예약을 하려는데요 5월 3일에 가능한가요 그럼요 잠깐만 기다려주세요 몇 시쯤에 생각하시나요? 오후 12시쯤이요 오후 12시는 꽉 찼습니다 제일 가까운 시간은 1시 15분 정도예요 오전 10시에서 오후 12시 사이에는 안 되나요? 뭘 하시느냐에 따라 달라집니다 고객이 어떤 서비스를 원하시죠? 그냥 여성 컷트요 알겠습니다 그러면 오전 열시에 가능해요 오전 열시 괜찮네요 고객님 성함이 어떻게 되시나요? 리사예요 알겠습니다 완벽해요 5월 3일 오전 10시에 리사씨 예약되셨습니다 네 알겠어요 감사합니다 감사해요 좋은 하루 되세요 여러분이 들으신건 실제 통화입니다 어시스턴트가 실제로 대화의 뉘앙스를 이해한다는 게 정말 놀랍지 않나요 이 기술 연구에 수년을 들였습니다 이를 구글 듀플렉스라고 부릅니다 자연스러운 언어 이해와 딥 러닝, 실감나는 대화에 우리가 수년동안 들인 투자의 산물이죠 어시스턴트는 일이 끝나면 예약이 완료되었다는 확인 알림을 여러분에게 전해줍니다 다른 예시를 보여드리겠습니다 식당에 전화를 하고 싶다고 해 봅시다 아마 작은 식당일 거예요 온라인 예약이 보통 불가능하죠 그리고 통화가 예상과는 조금 다른 방향으로 전개됩니다 한 번 들어보시죠 여보세요 무엇을 도와드릴까요? 안녕하세요 7일 수요일에 예약하려구요 일곱 분인가요? 4명이에요 네 분이요? 언제죠? 오늘인가요? 오늘밤? 다음 수요일 오후 여섯시요 사실 우리 가게는 5명부터 예약할 수 있어요 네 분이라면 그냥 오시면 됩니다 자리에 앉기까지 대기 시간은 어느 정도인가요? 언제요? 내일이요? 아니면 주말? 다음 주 수요일이요 7일 입니다 그리 붐비지 않을 거예요 네 분이 오시는 거 맞죠? – 알겠습니다 감사해요 – 네 들어가세요 다시 말씀드리지만 실제 통화입니다 예상처럼 흘러가지 않는 통화는 자주 있는 일이잖아요 어시스턴트는 문맥과 뉘앙스를 이해하고 만일에 대비해서 대기시간까지 물어봅니다 대화를 우아하게 다뤘어요 이 기술은 여전히 개발 중이고 열심히 연구하고 있습니다 사용자들의 경험과 기대를 충족시켜 회사와 사용자 모두에게 좋도록요 올바르게 이루어진다면 사람들의 시간을 절약하고 회사들에게 큰 가치를 창출해 줄 겁니다 이런 때에도 사용 가능하게 하고 싶어요 아침을 맞이한 바쁜 부모님인 거예요 게다가 아이가 아파서 의사에게 예약 전화를 하는 상황입니다 이 상황에 사용 가능하려면 정말 열심히 일해야 할겁니다 이보다 단순한 일들에는 조만간 사용 가능하게 출시될 겁니다 예를 들면 매일 구글에는 많은 질문들이 올라옵니다 사람들이 사업체의 개장 시간과 폐장 시간을 알고 싶어하는 질문들이 많죠 하지만 휴일이 끼면 까다로워지잖아요 사업체들은 많은 전화를 받게 되죠 그래서 우리 구글이 단 한 통의 전화를 하고 그 정보를 수백만 사용자들을 위해서 업데이트를 하는 겁니다 그러면 소규모 사업체들이 무수히 많은 전화를 받을 필요가 없겠죠 이렇게 시간을 수정함으로써 사용자들에게 더 나은 경험을 하게 만들어 줄 겁니다 다가오는 주에 이 기능을 시험 삼아 출시할 예정입니다 지켜 봐 주세요 이 모든 것을 아우르는 하나의 주제는 우리가 사용자들에게 시간을 주기 위해 열심히 노력한다는 것입니다 구글에서는 이점에 집착해왔습니다 검색에서는 사용자들이 원하는 답을 빠르게 찾아서 알려주는 데 집착했죠 그리고 저는 새로운 영역인 디지털 웰빙으로 들어섰습니다 연구 결과에 따르면 사람들은 전자기기에 매여 산다고 느낍니다 여러분들도 이런 기분을 느끼시겠죠 사회적인 압박은 커져만 갑니다 무엇이든 받는 즉시 응답하라구요 사람들은 정보를 바로바로 처리하느라 초조해합니다 포모를 겪고 있죠 최신 유행에 뒤쳐지는 것을 두려워합니다 우리는 더 나은 방법이 있을 거라고 생각했고 사람들에게 말해왔습니다 몇몇이 조모라는 개념을 알려주더군요 유행에 뒤쳐지는 즐거움이죠 그래서 우리는 디지털 웰빙이 진짜로 사용자들을 도울 수 있다고 믿습니다 많은 노력이 지속되어야 할 겁니다 우리의 모든 상품들과 플랫폼에 걸친 노력이죠 여러분의 도움이 필요합니다 디지털 웰빙으로 사용자를 도울 수 있는 방법은 네 가지입니다 여러분의 습관을 이해하고 문제를 파악하여 필요할 때 스위치를 꺼버립니다 가장 중요한 건 가족과의 균형을 찾는 거죠 예시를 몇 개 보여드리겠습니다 다가오는 출시일에 안드로이드에서 이 소식을 듣게 될 겁니다 제가 가장 좋아하는 기능은 바로 대시보드입니다 안드로이드에서 여러분이 어떻게 시간을 쓰는 지를 완벽하게 보여드릴 예정인데요 작동시켰던 앱들 그 날짜에 휴대폰을 켠 횟수 받은 알림 수 그리고 그것들을 해결하여 더 나아지도록 도울 생각입니다 앱들도 도움이 될 수 있죠 유튜브가 선두에 설 텐데요 만약 여러분이 동의한다면 휴식을 취하라고 알림을 줄 겁니다 예를 들어서 한동안 유튜브를 봤다면 알림창이 떠서 말하는 거죠 '휴식을 취할 시간입니다' 사용자들이 원한다면 유튜브가 시행할 다른 것은 모든 알림을 통합하는 겁니다 일별 요약 형태로 말이죠 네 개의 알림이 왔다면 하루에 한 번만 알림이 오는 거죠 유튜브가 이 기능을 이번 주에 출시할 예정입니다 이 분야에 있어서 많은 작업을 해 왔어요 패밀리 링크가 좋은 예죠 부모님들에게 자녀의 화면 보는 시간을 관리할 수 있는 도구를 제공했습니다 전 이게 중요한 부분이라고 생각합니다 여기에서 더 나아가고 싶습니다 아이들이 똑똑한 결정을 내릴 준비를 갖추게 하고 싶습니다 그래서 우리의 새로운 접근 방식인 구글 디자인 접근입니다 비 인터넷 어썸이라고 부르죠 아이들이 디지털 세상에서 안전한 탐험을 하게 도와줍니다 아이들이 안전하고 친절하며 사려 깊은 온라인 세상에 있기를 원합니다 다가오는 해에 아이들 오백만명을 추가로 훈련시킬 것을 서약합니다 지금 보시는 이 모든 도구들은 우리 디지털 웰빙 사이트에서 오늘 오후에 출시됩니다 우리가 거대한 책임감을 느끼는 또 다른 분야가 있습니다 바로 뉴스입니다 뉴스는 우리 주요 임무죠 또한 이런 시대에는 양질의 언론을 지원하는 것이 어느 때보다 중요한 일이잖아요 민주주의가 작동하는 데 기본이 되죠 저는 언제나 뉴스를 좋아했어요 인도에서 자라면서 분명히 기억하는 건 제가 신문을 기다렸었다는 거예요 할아버지는 제 바로 옆에서 같이 기다리셨죠 분명한 서열이 있었습니다 할아버지가 신문을 제일 먼저 보시고 그 다음은 아버지, 그리고 제 형까지 읽으면 제 차례가 왔죠 그 당시에는 주로 스포츠 영역을 좋아했습니다 시간이 흐르면서 뉴스에 대한 저의 애정도 커져갔고 오늘날까지도 저와 함께하고 있습니다 뉴스 산업에게 어려운 시기입니다 구글 뉴스 이니셔티브를 최근에 출시했습니다 삼억 달러를 향후 삼년간 투자하기로 결정했습니다 기관이나 기자들과 함께 일하면서 산업에 도움이 되는 혁신적인 제품과 프로그램을 개발하는 데 도움을 주고 싶습니다 그와 관련한 제품인 구글 뉴스는 오랫동안 우리 곁에 있었죠 사실 911테러 직후에 만들어졌습니다 스무 명의 직원이 투입된 프로젝트로 다양한 신문사의 뉴스를 보고 무슨 일이 일어났는지 더 잘 이해하고 싶어했던 한 기술자에 의해 시작됐습니다 그 때부터 컨텐츠의 양과 다양성은 커져가기만 했습니다 오늘날 생산되는 기사는 그 어느 때보다 대단한 양을 보여줍니다 도움이 간절해서 구글을 켠 사람들에게 정확한 정보를 제공하는 것이 우리의 책임인 것이 사실이죠 이게 바로 우리가 뉴스 프로젝트를 다시 구상하게 된 이유입니다 AI를 활용해서 언론이 제시해야 하는 제일 중요한 것을 우선 제시합니다 사용자가 신뢰하는 양질의 기사를 제공하고 싶습니다 하지만 출판사들을 위한 제품도 만들고 싶습니다 그 무엇보다도 깊은 통찰력과 완전한 관점으로 사용자가 관심있어 하는 주제를 제공해주고 싶습니다 새로운 구글 뉴스를 발표하게 되어 굉장히 떨립니다 트리스탄이 더 자세하게 설명해 줄 겁니다 구글 뉴스 엔지니어 트리스탄 업힐 피차이CEO님 감사합니다 새로운 구글 뉴스와 함께 세 가지 일을 도우려고 합니다 첫 번째, 여러분이 관심 있는 뉴스를 계속 알 수 있게 하겠습니다 두 번째, 완전한 이야기를 이해하게 하겠습니다 마지막으로 여러분이 사랑하는 신문사를 즐기고 후원할 수 있게 하겠습니다 결국 뉴스 출판사와 그들이 만드는 양질의 기사가 없다면 오늘 여러분에게 보여 줄 것이 아무것도 없겠죠 어떻게 여러분이 관심 있는 뉴스를 더 쉽게 알도록 만들 지부터 시작해보도록 하겠습니다 구글 뉴스를 켜면 제일 윗 부분에 지금 바로 알아야 하는 주요 기사 다섯 개의 브리핑이 보입니다 브리핑 밑으로는 당신만을 위해서 선택된 기사들이 보입니다 우리 AI가 지속적으로 웹의 파이어호스를 읽어서 매분 발행되고 있는 수백만개의 기사, 영상, 팟캐스트 그리고 댓글들을 당신이 알아야 하는 주요한 것에 따라 정리해 줄 겁니다 구글 뉴스는 각 지역 사건과 그 지역의 의견들도 보여줍니다 자신의 공동체에 연결된 것을 느끼게 해 주는 정보죠 크로니클의 이 기사는 새로운 베이브리지를 지나는데 얼마나 걸리는지를 궁금하게 했습니다 멋있는 건 제가 굳이 앱에게 나는 정치를 따른다거나 자전거를 좋아한다거나 베이 에리어에 대해 알고 싶다는 것을 말 할 필요가 없이 완벽하게 작동 합니다 그리고 우리가 앱에 강화학습같은 기술을 적용시켰기 때문에 더 많이 사용할수록 더 나아질 겁니다 언제든지 바로 이 출판사나 주제는 더 적게 혹은 더 많이 보고 싶다고 말해도 됩니다 다른 사람들은 뭘 읽는지 궁금해지면 헤드라인으로 바꿔서 지금 전세계에서 가장 보도가 많이 되는 주요 기사들을 볼 수도 있죠 더 살펴볼까요? 크고 멋있는 사진들이 많아서 이 앱이 완전히 시선을 사로잡는 걸 알 수 있죠 진심으로 훌륭한 영상은 물론이구요 한 번 보시죠 (기기에서 나오는 음악과 환호) 유튜브나 웹에 퍼져 있는 모든 최신 영상을 볼 수 있습니다 우리의 디자인은 앱을 가볍고, 쉽고, 빠르고 또한 재밌게 만드는 데 중점을 뒀습니다 우리의 처리 원칙은 이야기가 스스로 말하게 하는 것입니다 꽤 괜찮죠? 앱을 통해서 보시고 있는 것은 새로운 구글 머티리얼 테마입니다 앱 전체가 머티리얼 디자인을 이용해서 만들어졌는데요 변환할 수 있고 통일된 우리의 디자인 시스템으로 구글에서 특별히 맞춤 제작한 것입니다 오늘 오후에 더 자세한 설명과 각자의 제품에서 머티리얼 테마를 이용하는 방법에 대해 들으실 수 있습니다 새로운 비쥬얼 포맷인 뉴스캐스트를 기쁜 마음으로 소개하겠습니다 이런 것은 어떤 뉴스 앱에서도 보실 수 없으실텐데요 뉴스캐스트는 이야기를 미리보기하는 기능입니다 무슨 얘기인지 쉽게 알아차릴 수 있게 해 주죠 영화 스타 워즈와 관련된 이야기를 함께 확인해보시죠 자연스러운 언어 이해의 최신 기술을 이용해서 모든 것을 한 데 모았습니다 솔로의 영화 예고편부터 뉴스 기사나 캐스트의 언급까지 모두요 새로운 제시방식으로 휴대폰으로 보기에 아주 멋지죠 뉴스캐스트는 기본적인 것을 알기 쉽게 해 주고 더 자세히 알고 싶은 것을 결정할 수 있게 해 줍니다 또 가끔씩은 다른 방식으로는 절대 알지 못했을 것도 발견합니다 제가 제일 관심 있는 기사나 정말 복잡한 기사의 경우에는 뛰어들어서 다양한 관점을 확인하고 싶잖아요 그런 관점에서 구글 뉴스의 두 번째 목표에 대해서 얘기해 볼까요? 이야기 전체를 이해하는 겁니다 오늘날 스스로의 관점을 넓혀서 뉴스를 심도 깊게 이해하는 건 많은 노력이 필요하잖아요 구글 뉴스와 함께라면 큰 힘을 기울이지 않고 가능합니다 풀 커버리지는 더 자세히 알려주겠다는 초대장입니다 다양한 신문사와 형식으로 전해지는 이야기들 측면에서 이야기의 전체적인 그림을 완성시킵니다 우리는 시간적 동일 지역성이라는 기술을 이용해서 풀 커버리지를 만들었습니다 이 기술을 통해서 우리는 각 개체간의 관계를 볼 수 있고 이야기 속 사람, 장소, 물건을 이야기에서 전개된 그대로 이해할 수 있습니다 언제든지 이 기술을 웹의 정보의 홍수에 적용하여 줄거리에 맞게 구성합니다 전부 실시간으로 이뤄지죠 현존하는 가장 강력한 앱 기능입니다 뉴스를 파헤칠 수 있는 완전히 새로운 방식을 제공하죠 풀 커버리지가 작동하는 방법을 최근 푸에르토리코에서 발생한 정전을 통해서 알아보시죠 이 사건에 대해 굉장히 많은 궁금증을 가지고 있었습니다 "어떻게 일이 이 지경이 됐지?" "예방할 수는 없었을까?" "이 일이 해결되고는 있을까?" 같은 질문이었죠 풀 커버리지를 만들어서 이 모든 것을 한 자리에서 이해할 수 있게 해 봤습니다 무슨 일이 일어났는지 알려주는 주요 표제들부터 시작했습니다 그리고 실시간 사건 이해를 이용해서 중요한 이야기 측면에서 정리를 해 나갔습니다 이 일처럼 몇 주, 몇 달에 걸쳐서 발생하는 사건의 뉴스의 경우에는 우리의 주요 사건 시간대를 봄으로써 사건 전개를 파악할 수 있습니다 그리고 복구가 시작되었지만 아직 가야 할 길이 멀었음을 분명히 알 수 있었습니다 아직 남은 사건에 대한 질문들을 끄집어냈습니다 여러분이 직접 답을 찾으러 나갈 필요가 없게요 우리가 사건의 전후사정과 다양한 시각을 알고 있으므로 관련 인물의 트윗이나 여론 분석, 사실 확인 등을 보여주고 한 단계 깊게 이야기를 이해할 수 있도록 돕습니다 각각의 경우에서 왜 이 정보가 중요한지 어떤 특별한 가치를 지녔는지를 우리 AI가 강조해줍니다 제가 풀 커버리지를 사용하면서 제가 관심 있는 주제에 대해서 방대한 양의 지식을 쌓을 수 있다는 것을 알았습니다 360도의 시각을 가질 수 있었습니다 표제 몇 개를 훑어봤을 때보다 훨씬 나은 결과죠 그 무엇보다도 우리 연구 결과에 의하면 건설적인 대화나 토론을 위해서는 모두가 같은 정보를 얻을 수 있어야합니다 그게 바로 풀 커버리지에서 같은 주제에 대해 모두가 같은 내용을 보는 이유입니다 신뢰 할만한 신문사에서 여과 없이 사건에 대한 시각을 보여드립니다 감사합니다 이 말은 꼭 하고 싶었는데 저는 이 새로운 기능들을 사랑합니다 이것들은 우리가 새로운 구글 뉴스를 더 재미있게 만들기 위해 구상한 것 중 일부분에 불과합니다 하지만 아까 말씀드렸다시피 이 모든 건 대단한 언론이 매일 만들어내는 것이 없었다면 존재할 수 없습니다 이것은 바로 우리의 마지막 목표인 여러분이 좋아하는 신문사를 즐기고 후원하게 돕는 것으로 이어지죠 앱의 전면 중앙에 신문사를 위치시켰습니다 그리고 뉴스스탠드에서는 좋아하는 신문사를 찾아서 팔로우하거나 새로운 신문사를 검색하고 찾기 쉽습니다 천여개가 넘는 잡지도 있는데요 와이어드, 내셔널 지오그래픽, 피플 같은 잡지로 모두 제 휴대폰에서 보기에는 아주 멋있네요 USA 투데이같은 출판물을 팔로우하려면 별 모양을 직접 탭하면 됩니다 만약 구독하고 싶은 출판물이 있다면 예를 들어 워싱턴 포스트를 구독하고 싶다면 이를 매우 쉽게 만들었습니다 양식도 신용카드 번호도 새로운 비밀번호도 필요 없습니다 구글 계정으로 가입하기 때문에 이미 준비가 되어있죠 출판사를 구독하면 어디에서나 쉽게 컨텐츠를 볼 수 있어야 한다고 생각합니다 그리고 이게 구글을 통한 구독을 개발한 이유입니다 구글을 통한 구독은 구글 계정으로 로그인한다면 이미 지불한 컨텐츠를 어디에서든 이용 가능하게 합니다 어떤 플랫폼이나 장비든지 구글 써치나 구글 뉴스, 출판사의 사이트에서 지불한 것이라면요 전세계 60개가 넘는 출판사들과 공동으로 작업했습니다 다가오는 주에 출시될 예정입니다 감사합니다 언제 어디서든지 가장 중요한 신뢰할 수 있는 고품질의 정보에 쉽게 접근할 수 있게 하기 위해서 우리가 나아가야 할 수많은 단계 중 하나였습니다 그게 새로운 구글 뉴스였죠 관심 있는 뉴스를 계속 볼 수 있고 브리핑과 뉴스캐스트를 제공해주고 이야기 전체를 이해할 수 있으며 풀 커버리지를 사용할 수 있고 좋아하는 신문사를 읽고 팔로우하고 구독함으로써 즐기고 후원할 수 있게 해줍니다 이제 발표할 제일 좋은 뉴스는 127개국의 안드로이드와 iOS, 그리고 웹에서 오늘부터 이 기능을 사용할 수 있다는 겁니다 저도 그렇게 생각해요 정말 멋진 일이죠 다음 주부터는 누구든지 사용할 수 있을 겁니다 구글에서는 정확한 적시의 정보를 사람들에게 제공하고 양질의 언론을 만들고 후원하는 게 그 어느 때보다 바로 지금 중요하다는 것을 알고 있습니다 우리의 역할을 수행하기 위해 최선을 다하겠습니다 이 여정을 여러분과 함께 하게 되기를 고대합니다 이제 제가 소개할 데이브는 안드로이드의 최신 소식을 알려줄 겁니다 안드로이드는 단순한 목표를 가지고 시작했습니다 모바일 산업에 공개된 표준을 만들자는 것이었죠 오늘날 안드로이드는 전세계에서 가장 유명한 모바일 운영 체계입니다 학습을 위한 개방 지원을 위한 개방 변화를 위한 개방 차이를 위한 개방 모두를 위한 개방 새로운 한계를 향한 개방 새로운 친구를 위한 개방 세상을 향한 개방 미래를 향한 개방 만약 당신이 개방성을 믿는다면 선택을 믿는다면 모두의 혁신을 믿는다면 안드로이드에 오신 것을 환영합니다 10년간 감사했습니다 모두들 안녕하세요 2018 개발자 회의에 참가하게 되어 영광입니다 안드로이드 엔지니어링 담당 부사장 데이브 버크 십년 전에 첫 번째 안드로이드 휴대폰인 T 모바일 G1을 출시했습니다 간단하지만 대담한 아이디어였습니다 모두에게 열려 있는 무료 모바일 플랫폼을 만들자 그리고 오늘날 그 아이디어는 빛을 발하고 있습니다 우리 동업자들이 수만개의 스마트폰을 출시해서 전세계 수십억의 사람들이 이를 사용하고 있습니다 이 여정을 통해서 우리는 안드로이드가 단순한 스마트폰 운영 체계를 뛰어넘었다는 것을 알 수 있었습니다 웨어러블 기기나 TV, 자동차, AR, VR, IoT 등의 새로운 컴퓨팅 분야에 힘을 불어넣어 주고 있습니다 지난 십년간 안드로이드의 성장은 데스크탑에서 모바일로의 컴퓨팅의 변화를 도왔습니다 피차이CEO가 말했듯이 세계는 새로운 변화에 직면해 있습니다 AI가 산업을 크게 변화시킬 겁니다 건강 관리나 교통같은 분야에서요 우리 산업 역시 이미 바뀌고 있습니다 그 결과 우리가 작업하고 있는 새로운 안드로이드인 안드로이드 P가 나왔습니다 안드로이드 P는 AI를 운영 체계 핵심으로 하는 새로운 비전의 중요한 첫 걸음입니다 사실 AI는 이번 출시의 세가지 테마의 첫 번째 테마를 뒷받침해줍니다 세가지 테마는 지능 단순함 디지털 웰빙입니다 지능부터 시작해보겠습니다 우리는 스마트폰이 더 똑똑해져야 한다고 믿습니다 스마트폰은 여러분에게서 배우고 여러분에게 적응해야 합니다 내장된 머신 러닝같은 기술은 여러분의 사용 패턴을 익히고 자동적으로 다음 행동을 예상해서 여러분의 시간을 절약해줍니다 기기에서 운영되기 때문에 데이터가 휴대폰에서 비공개로 저장됩니다 몇몇 예시를 통해서 이 기술을 어떻게 안드로이드에 적용시켜 더 똑똑한 운영 체계를 만들었는지 직접 확인해보시죠 거의 대부분의 설문조사에서 스마트폰 사용자들은 제일 걱정되는 것으로 배터리 수명을 꼽았습니다 여러분에게도 적용될 지 모르겠지만 이건 제 버전의 매슬로의 욕구 단계입니다 배터리, 와이파이, 생리적 욕구 안정, 애정, 존경, 자아 실현 다 겪어보신 적 있으시잖아요 배터리가 충분한 것 같았는데 집 밖을 나서기만 하면 평소보다 빠르게 사라지면서 충전기로 달려가야만 하죠 안드로이드 P는 딥 마인드와 협력하여 적응형 배터리라는 새로운 기능을 만들었습니다 여러분에게 좀 더 지속되는 배터리를 선사하기 위해 설계되었습니다 적응형 배터리는 내장된 머신 러닝을 사용하여 다음 몇 시간 동안 당신이 어떤 앱을 사용할지 어떤 앱을 오늘은 전혀 사용하지 않을지를 예측할 수 있습니다 그리고 그 예측과 운영 체계가 적응한 당신의 사용 패턴을 결합하여 당신이 쓸만한 앱과 서비스에만 배터리를 소모합니다 결과는 굉장히 탁월했습니다 전체적으로 켜진 앱에 쓰이는 CPU를 30% 감소시킬 수 있었습니다 작은 CPU 코어를 이용하여 작동하는 백그라운드 프로세서같은 다른 수행 능력 향상과 결합되어 많은 사용자들에게 배터리 사용 시간을 늘려주었습니다 꽤 멋지죠 OS가 사용자에게 적응하는 또 다른 예시는 자동 밝기 조절입니다 대부분의 현대 스마트폰은 밝기를 자동으로 조절합니다 주변의 밝기 조건을 따져서요 하지만 한 방식으로만 작동하죠 여러분의 개인적 기호나 환경은 고려하지 못합니다 그래서 여러분이 직접 밝기를 조정하는 일이 자주 일어나게 되고 나중에는 화면이 너무 밝아 보이거나 너무 어둡게 보이게 됩니다 그래서 안드로이드 P에서는 새로운 내장 머신 러닝 기능인 적응형 밝기를 씁니다 적응형 밝기는 주변 조명에 따라 여러분이 어떻게 밝기 조절을 하는지 습득해서 그대로 조절을 해줍니다 에너지 효율적인 방법으로요 휴대폰이 여러분의 기호에 적응함에 따라 여러분은 밝기가 말 그대로 자동 조절되는 것을 볼 수 있습니다 놀랍도록 효율적이죠 실제로 시험 사용자 중 약 절반이 이전 안드로이드 버전들에 비해서 직접 밝기 조절을 덜 하게 되었습니다 우리는 UI 역시 좀 더 지능적으로 만들었습니다 작년에 예상 앱이라는 개념을 소개했습니다 여러분이 평소에 앱을 사용하는 흐름에 맞춰 OS가 다음으로 여러분이 필요로 할 앱을 예상하고 보여주는 기능입니다 매우 효율적이죠 거의 60%의 예상률을 보여줬습니다 안드로이드 P는 단순히 다음에 실행할 앱을 예상하는 수준을 벗어나서 여러분이 다음에 취할 행동이 무엇인지 예상합니다 이 기능은 앱 액션이라고 합니다 어떤 기능인지 한 번 보시죠 런처의 맨 위에 두 가지 액션이 보이시죠 하나는 제 여자동생인 피오나에게 전화하는 것이고 다른 하나는 스트라바 앱을 사용해 저녁 조깅을 시작하는 것입니다 그러니까 액션들이 제 사용 패턴에 따라 예상되는 거죠 휴대폰이 저에게 맞춰서 제 다음 일을 하도록 돕는 겁니다 더욱 빠르게 할 수 있게요 다음 예시입니다 제가 헤드폰을 연결하면 안드로이드는 제가 듣던 앨범을 다시 틀어줍니다 앱 액션을 지원하기 위해 개발자들은 앱에 actionsxml을 추가해주기만 하면 됩니다 그러면 액션이 런처에서 뿐 아니라 스마트 텍스트 선택, 플레이스토어, 구글 검색 그리고 어시스턴트에서까지 작동할 겁니다 구글 검색을 보시죠 우리는 다른 방식들로 액션이 나타나게 실험을 하고 있습니다 설치해서 많이 쓰는 앱들을 위해서요 예를 들면 저는 판당고를 아주 자주 씁니다 그래서 제가 새로운 어벤져스 영화인 인피니티 워를 검색하면 보통의 제안에 더해서 판당고 앱에서 표를 사는 액션까지 받게 됩니다 꽤 멋있죠 액션은 간단하지만 대단한 아이디어로 여러분의 상황에 맞게 앱에 깊은 연결고리를 제공해줍니다 하지만 그보다 더 대단한 것이 있습니다 앱 UI를 그때그때 적절하게 사용자에게 제공하는 겁니다 이걸 슬라이스라고 부릅니다 슬라이스는 새로운 API로 개발자들이 앱 UI에서 상호작용되는 정보를 분명히 하게 해 줍니다 OS에서는 다른 곳에서 나타날 수도 있습니다 안드로이드 P에서는 슬라이스를 검색에서 가장 먼저 보여주는 준비 작업을 해 두었죠 한 번 보실까요? 제가 밖에 나와 있는데 출근하기 위해 차를 타야 한다고 합시다 제가 구글 검색 앱에 리프트를 입력하면 제 휴대폰의 리프트 앱에서 만든 슬라이스를 볼 수 있습니다 리프트는 슬라이스 API를 이용해서 UI 템플릿의 다양한 배열을 보여줍니다 검색하는 중에 리프트 앱의 슬라이스를 만들기 위함이죠 그러고 나면 리프트가 제 직장까지의 비용을 보여주고 슬라이스가 상호작용할 수 있기 때문에 저는 바로 거기서 택시를 부를 수 있죠 아주 좋습니다 슬라이스 템플릿은 다용도로 개발자들이 모든 곳에 쓸 수 있습니다 영상 재생부터 호텔 체크인까지요 또 다른 예들 들어볼가요 제가 하와이를 검색하면 구글 포토에서 제 휴가 사진 슬라이스를 보여줍니다 우리는 놀라운 파트너들과 함께 앱 액션과 슬라이스를 작업했습니다 개발자들을 위한 얼리액세스가 다음 달에 좀 더 광범위하게 열릴 예정입니다 지금까지 액션이 그 중에서도 슬라이스가 역동적인 양방향 경험을 가능하게 해 주는 것을 보셨습니다 앱의 UI가 상황에 맞게 지능적으로 나타나서 가능한 일이죠 지금까지 우리가 안드로이를 사용자에 맞추게 하기 위해 운영체계를 가르쳐 좀 더 지능적으로 만들고 있는 방법들을 소개했습니다 머신 러닝은 강력한 도구입니다 하지만 개발자들이 배우고 적용하기에 어렵거나 비싸게 느껴질 수 있죠 우리는 이런 도구가 머신 러닝에 대해 전문지식이 없거나 적은 사람들에게도 접근 가능하고 쓰기 쉽게 되기를 원했습니다 그래서 제가 오늘 발표할 것은 ML 키트입니다 새로운 API 세트로 파이어베이스를 통해 사용 가능합니다 ML 키트는 여러분에게 내장 API를 줘서 문자 인식, 얼굴 탐지 영상 표지 등등에 쓸 수 있게 합니다 ML 키트는 구글의 클라우드 기반 ML 기술에 다가갈 수 있는 능력을 지원해줍니다 시스템 구성상으로 ML 키트는 사용 준비가 완료된 모델을 제공하고 텐서플로우 라이트를 기반으로 하며 모바일에 최적화되어 있습니다 가장 좋은 점은 ML 키트가 공통 사용이 가능해서 안드로이드와 iOS 모두에서 작동하는 기능이라는 겁니다 구글은 ML키트를 통해 굉장히 좋은 결과를 얻은 협력사들과 함께 일하고 있습니다 예를 들면 유명한 칼로리 계산 앱인 루즈 잇!은 우리의 문자 인식 모델을 써서 영양 정보를 검사하고 ML 키트 맞춤형 모델 API를 써서 카메라를 통해 수집한 200가지의 다른 음식들을 자동적으로 분류합니다 오늘 오후 개발자 기조 연설에서 ML 키트에 대해 더 들으시게 될겁니다 스마트폰을 더 지능적으로 만들 수 있어서 너무 좋지만 우리에게는 유행이 지나간 기술도 중요합니다 우리의 지난 몇 년간 주요 목표는 안드로이드 UI를 현재의 사용자들과 다음 안드로이드 사용자 10억 둘 모두에게 좀 더 간단하고 접근 가능하게 진화시키는 것이었습니다 안드로이드 P에서는 단순함을 특별히 강조했습니다 우리가 생각하고, 여러분이 말씀 해주신 불만 사항들 즉, 원안 보다 더욱 복잡했던 경험들을 다루면서말이죠 이러한 개선사항은 구글 버전의 안드로이드 UI를 적용한 기기에서 찾아 보실 수 있는데 구글 픽셀이나 안드로이드 원 기기들이죠 제 휴대폰에서 라이브 데모 버전을 몇 개 실행해보겠습니다 원형 극장에서 칠천명이 저를 주시하는데 뭐가 잘못되겠어요? 그렇죠? 안드로이드 P를 통해 새로운 시스템 탐색 방법을 소개합니다 우리가 일년 넘게 연구한 결과죠 새로운 디자인이 안드로이드의 멀티태스킹을 좀 더 접근하기 쉽고 이해하기 쉽게 했습니다 가장 먼저 눈에 띄는 것은 하나의 깨끗한 홈 버튼입니다 더 적은 베젤을 원하는 디자인 트렌드를 인식해서 화면 가장자리의 여러개의 버튼보다는 제스처에 강조를 둔 디자인입니다 제가 화면을 밀어 올리면 바로 오버뷰가 생성 되고 최근에 사용했던 앱을 다시 사용할 수 있습니다 화면 하단에는 예상 앱 다섯개가 있어서 시간을 절약할 수 있습니다 계속해서 화면을 밀어 올리면, 즉, 두 번 위로 밀어올리면 모든 앱을 볼 수 있습니다 그러니까 시스템 공학적으로 우리가 한것은 것은 모든 앱과 오버뷰 공간을 하나로 합친 것입니다 밀어 올리는 제스처는 어디에서는 통합니다 어떤 앱을 사용하고 있든지 모든 앱과 오버뷰로 빠르게 돌아올 수 있는 거죠 제가 하고 있던 것들을 없애지 않고서도요 그리고 만약 원하신다면 퀵 스크럽 제스처를 사용하실 수도 있습니다 홈 버튼을 옆으로 슬라이드해서 최근 사용한 앱들을 스크롤하는 거죠 이 커진 수평 오버뷰의 장점 중 하나는 앱 컨텐츠를 알아 보기 쉬워서 이전에 사용한 앱의 정보를 다시 보기 편하다는 겁니다 심지어 우리는 스마트 텍스트 선택을 오버뷰까지 확장시켰습니다 예를 들면 제가 밴드 더 킬러스의 설명 중 한 곳을 탭하면 문구가 선택되어지고 스포티파이 같은 앱에서 들어볼 수 있는 액션이 보입니다 스마트 텍스트 선택은 또한 신경망까지 확장되어 좀 더 많은 개체를 인식할 수 있습니다 스포츠 팀이나 음악가, 항공편 번호들까지도요 이 뷰 탐색 시스템을 지난 달에 사용해보면서 정말 좋았습니다 훨씬 빠르고 효율적으로 끊임없이 멀티태스킹을 할 수 있죠 탐색 작업을 바꾸는 것은 굉장히 어려운 일입니다 하지만 가끔씩은 작은 변화가 큰 차이를 가져오기도 하죠 음량 조절이 한 예입니다 다들 그런 경험 있으시잖아요 영상이 재생되기 전에 음량을 줄이려고 했는데 그 대신에 벨소리를 작게 하고 영상의 음성이 주변에 있는 모두에게 울려 퍼졌던 경험이요 이걸 어떻게 고칠 수 있을까요? 여기 새롭게 나온 간편해진 음량 조절이 있습니다 수직으로 되어 있고 하드웨어 버튼 옆에 있어서 직관적이죠 주요 차이점은 이제 슬라이더가 미디어 음량만을 조절한다는 겁니다 그게 제일 자주 조절하는 거니까요 벨소리 음량에 있어서 제일 자주 쓰이는 것은 키거나 무음이거나 끄는 것이잖아요 간편하죠 우리가 회전도 굉장히 간편하게 바꿨습니다 저와 같다면 기기가 원하지 않을 때 회전되는 걸 싫어하실 텐데요 그렇다면 이 기능을 좋아하실 겁니다 지금 저는 회전 잠금 모드입니다 앱을 켜 보죠 그리고 기기를 회전시키면 새로운 회전 버튼이 탐색 바에 뜬 것을 볼 수 있습니다 그러면 그걸 탭해서 회전을 조절할 수 있습니다 꽤 멋진 기능이죠 지금까지 안드로이드 P에서의 사용자 경험을 간편화시킨 방법들에 대해 빠르게 훓어봤습니다 아직 많이 남아있어요 작업 분석 재설계부터 더 나은 스크린샷이나 개선된 알림 관리 등등 말이죠 알림 관리 말이 나왔으니 말인데 우리는 여러분이 원하신다면 더 많은 통제권을 드리고 싶습니다 피차이CEO가 이전에 암시한 디지털 세상과 현실 세상을 쉽게 이동할 수 있게 하겠다는 개념에서 중요한 부분입니다 이 중요한 영역과 우리의 세 번째 테마를 좀 더 자세히 알아보기 위해 사미르에게 마이크를 넘기겠습니다 감사합니다 모두들 안녕하세요! 최근에 가족과 휴가를 다녀왔는데 부인이 제 휴대폰을 봐도 되냐고 물었습니다 호텔 방에 들어서자마자요 저에게서 휴대폰을 가져가서 호텔 금고로 걸어가더니 안에 넣고 잠가버리더군요 그리고 돌아서서 제 두 눈을 보며 말했습니다 "칠일 뒤에 우리가 집으로 돌아갈 때 다시 줄게" 와! 전 충격을 받았죠 살짝 화가 나기도 했습니다 하지만 몇 시간이 지나자 근사한 일이 일어났습니다 휴대폰에서 오는 방해가 없어지자 제가 실제로 세상과 떨어져서 현재에 충실해질 수 있었고 멋있는 가족 휴가를 즐길 수 있었죠 저에게만 해당되는 일은 아닙니다 우리 팀은 기술과의 적절한 균형을 찾으려는 사람들의 이야기를 많이 들어왔습니다 피차이CEO에게서 들으셨 듯이 디지털 웰빙을 돕는 것이 어느 때보다 중요한 시기입니다 사람들은 휴대폰을 사용하는 시간이 정말 유용한 시간이라고 말하곤 합니다 하지만 가끔씩은 다른 일을 하면서 시간을 보내고 싶다고 하죠 사실 우리는 70%가 넘는 사람들이 이 균형을 맞추기 위해 도움을 필요로 한다는 것을 발견했습니다 그래서 열심히 연구한 끝에 안드로이드에 주요 능력을 더했습니다 사람들이 원하는 기술과의 균형 찾기에 도움을 주는 능력이죠 우리가 첫 번째로 주목한 것은 여러분의 습관을 이해하는 데 도움을 주는 것입니다 안드로이드 P는 대시보드를 통해 여러분이 기기에서 어떻게 시간을 보내는 지 보여줍니다 아까 보셨다시피 어떤 앱에서 얼마나 시간을 보내는지 오늘 하루 얼마나 자주 기기를 열었는지 그리고 알림을 얼마나 많이 받았는지 같은 것들이죠 이런 것들 중 무엇이든지 한 층 더 분석해 볼 수 있습니다 예를 들어보겠습니다 제 토요일 G메일 데이터입니다 이걸 보면 제가 주말동안 이메일을 꼭 봤어야 했는지 의문이 들긴 하네요 그게 대시보드가 있는 이유니까요 언제 사용하는 지는 이를 이해하는데 중요하지만 앱에서 뭘 사용하는 지도 못지 않게 중요하죠 TV를 보는 것과 같아요 기나긴 하루 끝에 좋아하는 쇼를 보는 건 꽤 기분 좋은 일이잖아요 하지만 교양 방송을 보는 건 왜 내가 다른 걸 하지 않았을까 의문이 들게 하죠 많은 개발자들이 이 개념을 '의미있는 일'이라고 부릅니다 많은 개발자들과 가깝게 일하면서 사람들이 건강한 방식으로 기술을 사용하게 돕자는 목표를 공유했습니다 그래서 안드로이드 P에서는 개발자들이 좀 더 세밀하게 앱에서 쓰는 시간을 분석해서 새로운 대시보드를 만들었습니다 예를 들어보겠습니다 유튜브는 딥 링크를 추가해서 모바일과 데스크탑을 통합한 총 감상 시간과 피차이CEO가 이전에 언급했던 유용한 도구들을 이용할 수 있게 할 겁니다 이해하는 건 좋은 시작이죠 하지만 안드로이드 P는 여러분에게 통제권을 줍니다 어떻게 그리고 언제 휴대폰을 쓸 지 여러분이 관리할 수 있게 돕습니다 좋아하는 앱이 있으시겠죠 하지만 여러분이 그 앱에 쓰는 시간은 느끼시는 것보다 훨씬 많습니다 안드로이드 P는 앱에서 쓸 시간을 제한할 수 있고 그 제한이 다가오면 여러분에게 살짝 알려줍니다 다른 걸 할 시간이라구요 그리고 남은 하루 동안 그 앱 아이콘은 비활성화되어 여러분의 목표를 상기시켜 줍니다 사람들이 말했던 또 다른 것은 참석한 식사자리나 회의에 완전히 집중하기가 어렵다는 겁니다 기기가 보여주는 알림이 방해가 되지만 거부하기 힘들다는 거죠 그렇죠? 다들 경험 있으시잖아요 그래서 우리가 만든 개선사항은 방해금지 모드입니다 전화나 문자뿐 아니라 시각적인 방해를 하는 화면 팝업도 없애줍니다 방해금지 모드 사용을 더 간편하게 하기 위해 새로운 제스처를 만들었습니다 애정을 담아 쉿이라고 이름지었죠 만약 휴대폰을 탁자에 뒤집어두면 자동으로 방해금지 모드에 들어갑니다 현재에 집중하고 핑 소리나 진동, 다른 방해가 없게요 당연히 응급상황을 대비해서 우리 삶의 주요 인물들의 연락은 받고 싶잖아요 배우자나 아이 학교같은 곳이요 안드로이드 P가 연락처 목록을 만들어드립니다 언제나 전화가 울려서 방해금지 모드에도 금지되지 않는 연락처들이죠 마지막으로 많은 사람들이 보통 잠자리에 들기 전에 휴대폰을 확인한다는 이야기를 들었습니다 그러면 알아차리기도 전에 한 두시간이 금방 지나가버리죠 솔직히 저도 최소한 일주일에 한 번은 그렇습니다 숙면을 취하는 건 중요하잖아요 기술은 그걸 도와줘야지 방해해서는 안 됩니다 그래서 와인드 다운 모드를 만들었습니다 구글 어시스턴트에게 잠 잘 시간을 말해놓으면 그 시간이 되었을 때 방해금지 모드로 바뀝니다 화면도 흑백 모드로 바뀌게 됩니다 뇌에 훨씬 적은 자극을 주죠 그리고 여러분이 휴대폰을 내려놓는 데 도움을 줄 겁니다 간단한 아이디어지만 컬러 TV 이전으로 돌아간 앱들을 보면서 제가 얼마나 빨리 휴대폰을 내려놓는 지 보면 놀라운 일이죠 걱정 마세요 아침에 일어나면 색은 다시 돌아옵니다 지금까지 디지털 웰빙과 관련한 기능을 몇 개 훑어 봤습니다 안드로이드 P는 이번 가을에 구글 픽셀과 함께 나올 예정입니다 디지털 웰빙은 우리에게 장기 테마가 될 겁니다 앞으로도 많이 기대해 주세요 지능, 단순함, 디지털 웰빙이라는 데이브와 제가 말한 세 가지 테마 뿐만 아니라 말 그대로 수백개의 개선사항들이 다가오는 안드로이드 P에서 보여질 겁니다 특히 플랫폼에 더한 보안 개선이 제일 기대되네요 그것에 대해서는 목요일에 열리는 안드로이드 보안 세션에서 자세히 알게 되실 겁니다 여러분의 가장 큰 의문은 '다 좋아' '근데 이걸 내가 어떻게 해 볼 수 있지?'일 겁니다 그래서 오늘 안드로이드 P 베타 버전이 발표됩니다 안드로이드 오레오에서 한 노력으로 OS 업그레이드를 쉽게 할 수 있어서 안드로이드 P 베타 버전은 구글 픽셀에서 이용 가능합니다 또한 일곱 개의 제조사 주력 기기에서도 오늘부터 이용 가능해질 겁니다 이 링크에 가셔서 여러분의 기기에 베타 버전을 받는 법을 알아 보시고 우리에게 여러분의 생각을 알려주시기 바랍니다 그럼 안드로이드의 새로운 것들 소개를 마치고 지도에 대해 얘기할 수 있게 젠을 소개하겠습니다 감사합니다 지도는 우리를 안내하고 연결시킵니다 구글은 그들이 한 번도 가보지 않은 곳의 지도를 만듭니다 그것이 어디이든 모든 사람들을 위해 덕분에 나이지리아가 변화했고 여러분도 여기에 함께 할 수 있습니다 목적지에 대한 지식으로 무장할 수 있다는 것은 당신도 다른 사람들처럼 목적지에 다다를 수 있다는 뜻입니다 두 번의 지진이 연속적으로 멕시코 시티를 강타했습니다 구글 지도가 이런 응급상황에 대처할 수 있게 도와줬죠 허리케인이 휴스턴을 섬으로 만들고 길은 수시로 바뀌었습니다 우리는 "구글이 있어서 다행이다"라고 계속 말했습니다 없었으면 우리가 뭘 할 수 있었을까요? 정말 멋진 일인 것 같아요 사람들이 좋아하는 일을 할 수 있게 그리고 해야 할 일을 할 수 있게 그들을 도와준다는 것은요 구글 지도 책임자 젠 피츠패트릭 기술을 만드는 것은 현실의 사람들의 일상을 돕기 위해서입니다 이것이 구글이 누구이고 무엇에 주력하는지를 결정하는 지에 있어서 처음부터 주안점이었습니다 최근 AI과 컴퓨터 비전의 발전은 우리의 오랜 상품들에도 극적인 진전을 가져왔습니다 구글 지도같은 상품이죠 또한 새로운 상품을 만드는 데도 도움을 줬는데 구글 렌즈같은 상품입니다 구글 지도부터 시작해봅시다 지도는 모두를 돕기 위해 만들어졌습니다 세계 어느 곳에 있든 상관없이요 우리는 220개의 국가와 영토를 지도화하고 수억개의 회사와 장소들을 지도에 표시했습니다 그 작업을 하면서 십억이 넘는 사람들에게 길을 잃어버리지 않고 세계를 여행할 수 있다는 자신감을 심어주었습니다 하지만 아직 끝은 멀었습니다 우리는 지도를 좀 더 똑똑하고 좀 더 상세하게 하려고 노력했는데 AI의 발전은 이를 가속화시켜줬습니다 이제는 거리 뷰와 위성 사진에서 새로운 주소, 회사, 건물들을 자동으로 추출하여 지도에 직접 추가할 수 있습니다 정식 주소가 없는 시골이나 여기 라고스처럼 빠르게 변하는 도시에서는 중요한 일이죠 지난 몇 년 동안 말 그대로 지도를 아예 바꿔야만 했어요 안녕하세요 나이지리아 만약 새로운 사업을 시작하시려고 한다면 얼마나 붐비는지 대기 시간이 어느 정도인지 심지어 사람들이 얼마나 오래 머무는지까지 알 수 있습니다 나가기 전에 주차가 쉬울지 어려울지를 알려주고 주차 공간을 찾는 데 도움을 줄 수도 있죠 이제 교통수단에 따라서 다른 길을 안내할 수 있습니다 오토바이를 타는지 차를 운전하는지에 따라서요 각 교통수단의 속도를 이해함으로써 모두에게 더 정확한 교통 예측를 해 줄 수 있게 됐죠 이건 지도가 할 수 있는 것의 겉핥기일 뿐입니다 원래 우리가 지도를 설계한 것은 여러분이 스스로의 위치를 파악하고 목적지로 가는데 도움을 주기 위해서였습니다 하지만 지난 몇 년간 사용자들이 지도에 점점 더 많은 것을 요구했습니다 그들 주변의 세상에 대해 점점 더 어려운 질문들을 물어왔죠 그리고 더 많은 일을 하려고 했습니다 오늘날 우리 사용자들은 목적지로 가는 최단거리 뿐만 아니라 주변에는 무슨 일이 있는지 새로운 장소는 어떤지 그리고 현지인이 자주 가는 곳이 어디인지 같은 것까지 궁금해합니다 세상은 신나는 일들로 가득합니다 스포츠 바에서 좋아하는 팀을 응원하거나 동네 식당에서 편안하게 친구나 가족과 저녁을 먹는 일들이죠 세상이 제공하는 일들을 여러분이 쉽게 알아보고 경험할 수 있도록 해 주고 싶습니다 구글 지도를 업데이트하면서 여러분이 관심 가지는 지역에서 새로운 것이나 유행을 계속 알 수 있게 하도록 열심히 노력했습니다 여러분에게 최적화된 장소를 상황과 관심사에 맞게 찾아드립니다 어떤 모습일지 예시들을 보여드릴텐데 소피아의 도움을 좀 받아보겠습니다 첫 번째, 포 유라는 탭을 추가했습니다 여러분이 관심 가지는 동네에 관해 알아 둘 만한 것들을 알려주도록 설계되었습니다 새로 개장하는 곳이나 지금 유행하는 것들 그리고 맞춤형 추천장소 같은 거요 여기 보시면 저한테 주변에 막 개장한 카페를 알려주네요 스크롤을 내리면 이번 주에 인기가 많은 식당 목록이 보이네요 굉장히 유용하죠 아무 힘을 기울이지 않고도 지도가 일상에서 벗어나 새로운 것을 시도하도록 자극하는 아이디어를 주니까요 하지만 이 장소가 저에게 맞다는 걸 어떻게 알 수 있을까요? 좋은 평가를 받은 장소들을 둘러보면서 내가 분명히 좋아할 만하고 꽤 괜찮은 것들이 많겠다고 생각했지만 정확히 어떤 게 좋은지 말할 수 없었던 경험이 있지 않나요? 우리가 유어 매치라는 점수를 만들었습니다 여러분이 좋아할 만한 장소를 찾는 데 도움을 주기 위해서죠 유어 매치는 머신 러닝을 사용하여 내가 추가해 놓은 정보들과 구글이 알고 있는 수억개의 장소들을 결합해줍니다 내가 평가한 식당들, 내가 좋아한 요리들, 내가 가 봤던 장소들 같은 정보죠 매치 숫자를 클릭하면 왜 당신에게 이것을 추천하는지 그 이유를 알려줍니다 당신만을 위한 장소 점수인 거죠 초기 테스터들이 정말 좋다고 평가했습니다 이제 여러분은 최고의 장소를 자신감 있게 고를 수 있습니다 미리 계획을 했든 그냥 떠나서 바로 결정을 해야 하든 상관 없이요 소피아 고마워요 포 유 탭과 유어 매치 점수는 여러분이 잘 알고 있게 해 주고 자신감 있게 장소를 선택하게 해 주는 방법의 좋은 예시입니다 사용자들에게서 자주 듣는 또 다른 불만사항은 다른 사람과 계획을 짜는 것이 진짜 힘들다는 거죠 그래서 함께 장소를 고르기 쉽도록 만들었습니다 쓰는 방법은 이렇습니다 최종 명단에 올리고 싶은 어떤 장소든 길게 누릅니다 저는 언제나 라멘을 추천하지만 제 친구들은 각자 다른 의견이 있다는 것을 알고 있습니다 그래서 선택권을 주기 위해 다른 선택지들을 추가하죠 좋아하는 장소들을 충분히 더했다면 목록을 친구들과 공유해서 친구들 의견을 더합니다 몇 번 탭하기만 하면 쉽게 공유할 수 있슴니다 여러분이 선호하는 어떤 플랫폼에서든 가능하죠 그리고 나면 친구들이 원하는 장소를 추가할 수도 있고 한 번의 간단한 클릭으로 투표하여 모임 장소를 빠르게 결정할 수 있습니다 이제는 링크들을 복사하고 붙여넣기 하는 대신에 서로 문자를 주고 받으면서 결정을 빠르고 쉽고 재미있게 내릴 수 있습니다 이건 새로운 지도 기능들을 일별한 것 뿐입니다 새로운 지도는 이번 여름 늦게 안드로이드와 iOS 모두에서 출시됩니다 우리는 이것이 주변 지역부터 머나먼 세계의 구석까지에서 여러분이 계속 더 나은 결정을 내리고 새로운 시각으로 세상을 경험하는 데 도움을 주기 위해 지도가 할 수 있는 일들의 시작점일 뿐이라고 생각합니다 이런 발견은 소규모 가게들이 없었다면 불가능했을 겁니다 왜냐하면 사람들이 새로운 장소를 발견하도록 도와줄 때 새로운 소비자들이 그 지역 사업을 발견하는 것도 돕고 싶거든요 주변 지역의 빵집이나 구석진 곳의 이발소같은 가게입니다 이런 가게들은 우리 공동체의 근간입니다 진심으로 그들이 구글과 함께 성공할 수 있게 도울 것을 약속합니다 매달 우리는 사용자들을 주위의 가게들과 90억 번이 넘게 연결해줍니다 10억 번의 전화와 30억 번의 길 찾기 요청을 포함한 숫자입니다 지난 몇 달간 우리는 심지어 몇몇 도구를 더했습니다 지역의 가게들이 의미 있는 방식으로 소비자들과 의사소통하고 관계를 맺게 해 주는 도구입니다 당신이 좋아하는 가게들의 이벤트나 제안들에 대한 일일 포스트를 볼 수 있습니다 조만간 그것에서 더 업데이트되어 새로운 포 유의 흐름을 볼 수 있을 겁니다 여러분이 준비가 되었다면 간편하게 한 번의 클릭으로 예약을 하거나 주문을 할 수 있습니다 기술이 모두에게 기회를 주는 것을 보면 언제나 고무됩니다 지난 13년간 우리가 모든 길, 모든 건물, 모든 가게들을 지도화하는데 투자한 이유는 이게 중요한 일이기 때문입니다 우리가 세계 지도를 만들었을 때, 지역 사회는 살아 숨쉬고 우리가 절대 불가능하리라 생각했던 장소들에서의 기회가 생겼습니다 컴퓨팅이 진화함에 따라 우리는 새롭게 생각하도록 계속 스스로 도전해왔습니다 현실에서 여러분의 일을 돕기 위해서였습니다 무대로 아파르나를 모셔서 우리가 구글 지도나 다른 곳에서 어떤 일을 하는지 알려드리겠습니다 구글 VR·AR 부사장 아파르나 첸나프라가다 우리 스마트폰의 카메라는 우리를 주변 세상과 굉장히 직접적으로 연결해줍니다 순간을 저장하고, 추억을 포착하고, 의사소통하게 도와줍니다 하지만 피차이CEO가 말했듯이 컴퓨터 비전과 AI의 진보에 따라 우리는 질문하게 되었습니다 "카메라가 더 많은 것을 할 수 있다면 어떨까?" "카메라가 질문에 대답하는 데 도움을 줄 수 있을까?" 그 질문들은 "어디로 가는 거지?"나 "내 앞에 뭐가 있지?"같은 거죠 익숙한 광경을 그려볼게요 당신은 지하철을 빠져나왔습니다 이미 약속시간이나 기술 회사 회의에 늦어버렸죠 종종 있는 일들이잖아요 그 때 휴대폰이 말하죠 '마켓가에서 남쪽으로 가세요' 그럼 어떻게 해야 하죠? 한 가지 문제는 어느 쪽이 남쪽인지 알 수 없다는 거죠 그러면 휴대폰을 내려다보고 지도상의 파란 점을 보죠 걸으면서 그 점이 옳은 방향으로 움직이는지 확인합니다 그렇지 않다면 반대 방향으로 걸어야죠 우리 모두 그런 적 있잖아요 그래서 우리는 자문했습니다 "카메라가 이걸 도와줄 수 있을까?" 우리 팀은 정말 열심히 작업했습니다 카메라와 컴퓨터 비전의 힘과 거리 뷰와 지도를 통합하여 걸어다니는 내비게이션을 재구상했습니다 구글 지도에서 보여질 모습을 한 번 보시죠 카메라를 켜면 여러분은 바로 어디에 있는지 알 수 있습니다 휴대폰과 싸울 필요가 없죠 지도상의 모든 정보나 거리 이름과 방향들은 여러분 바로 앞에 있을 겁니다 지도도 볼 수 있어서 계속 위치를 확인할 수 있죠 주변 장소들도 볼 수 있어서 주변에 뭐가 있는지 알 수 있죠 그리고 재미를 위해서 우리 팀이 유용한 가이드를 더하자는 아이디어를 냈어요 지금 보시는 거 같은 거죠 방향을 알려줄 겁니다 저기 지나가네요! 아주 멋있죠 이제 이런 경험들이 가능해졌지만 GPS 혼자서는 이것을 편집할 수 없습니다 그래서 우리는 VPS에서 작업을 해왔습니다 시각 위치 확인 서비스로 정확한 위치와 방향을 측정해줍니다 여기에서 주안점은 여러분이나 저나 익숙하지 않은 장소에서는 시각적인 랜드마크를 찾는다는 거죠 가게 앞이나 건물 정면 같은 걸요 그것과 같은 아이디어죠 VPS는 주변 환경의 시각적인 특징을 사용해서 같은 일을 합니다 정확히 어디 있는지 알려주고 정확히 어디로 가야 할 지 알려줘서 우리가 여러분을 돕게 해줍니다 아주 좋죠 우리가 지도에서 카메라를 이용해서 여러분을 도와주는 방법이었습니다 하지만 우리는 카메라가 여러분이 보는 것을 통해 더 많이 도울 수 있다고 생각했습니다 그게 바로 우리가 구글 렌즈 연구를 시작한 이유입니다 사람들은 이미 많은 답을 찾기 위해 구글 렌즈를 사용하고 있습니다 특히 질문이 말로는 설명하기 어려운 종류일 때는 더 그렇죠 '공원에서 본 그 귀여운 개는 뭐지?' 같은 질문에 대한 답입니다 래브라두들이죠 아니면 시카고에 있는 이 건물은 리글리 빌딩이고 높이는 130미터입니다 아니면 요새 제 9살 아들이 말하듯 할 수 있겠죠 "케빈 듀란트가 60명 넘게 서 있는 거랑 같네?" 오늘날의 렌즈는 구글 제품에서 사용할 수 있습니다 포토나 어시스턴트같은 제품이요 하지만 다음 주부터는 렌즈가 카메라 앱에 바로 삽입되어 픽셀이나 새로운 LG G7, 그리고 더 많은 기기들에서 사용 가능해질 겁니다 이렇게 하면 훨씬 더 쉽게 카메라로 바로 앞에 있는 것에 구글 렌즈를 사용할 수 있습니다 아주 많이 기대되네요 이와 비슷하게 비전은 컴퓨팅에 있어서 근본적인 변화입니다 많은 시간이 필요로하겠지만 우리는 이미 많은 진보를 이루었습니다 그래서 오늘 제가 구글 렌즈의 세 가지 새로운 기능을 보여드리겠습니다 더 많은 유형의 질문에 더 많은 답을 더 빠르게 줄 수 있을 겁니다 한 번 보실까요? 좋아요! 자, 첫 번째입니다 렌즈가 단어를 인식하고 이해할 수 있습니다 단어는 어디에나 있죠 생각해보면 교통 표지판, 포스터 식당 메뉴, 명함같은 것도요 하지만 스마트 텍스트 선택과 함께라면 보이는 단어들을 필요로 하는 답과 행동으로 이어줄 수 있죠 그래서 복사하고 붙여넣기를 현실에서 바로 휴대폰으로 할 수 있죠 바로 이렇게요 아니면 이걸 보고 있다고 합시다 단어가 가득한 페이지들을 답이 가득한 페이지로 바꿀 수 있죠 예를 들어서 식당 메뉴를 보다가 빠르게 탭을 해주면 모든 요리들을 알아낼 수 있습니다 어떻게 생겼고 어떤 게 들어가는지 같은 걸요 그건 그렇고 채식주의자로서 라따뚜이에 주키니와 토마토만 들어간다는 걸 알게 되서 좋더군요 진짜 좋죠 이런 예시들을 통해서 렌즈가 시각적으로 기호나 글자의 모양을 이해할뿐만 아니라 단어 뒤의 문맥을 이해하려고 노력한다는 것을 알 수 있습니다 거기서 바로 스콧이 말했던 모든 언어가 이해된다는 것이 진짜 도움이 되는 거죠 제가 다음으로 말할 기능은 스타일 매치라는 기능입니다 아이디어는 이렇죠 가끔 여러분이 하는 질문은 "오, 이 정확한 사물은 뭐지?"보다는 "이런 게 뭐지?"에 가깝습니다 친구 집에 있는데 이 유행하는 램프를 봤습니다 그리고 이 스타일과 비슷한 것들을 알고 싶습니다 이제 렌즈가 여러분을 도와줄 수 있습니다 시선을 끄는 옷을 봤다면 그저 카메라를 켜고 어떤 아이템이든 클릭하세요 그러면 당연히 구체적인 정보를 찾아낼 수 있을 겁니다 그 특정 물건에 대한 후기같은 거죠 하지만 그 외에도 그 스타일과 비슷한 모든 것들을 보고 찾을 수 있습니다 두 가지 부분이 있습니다 렌즈는 수백만 개의 물건을 검색해야만 하죠 하지만 우리는 검색을 어떻게 하는지 알고 있잖아요 하지만 다른 부분은 사실 복잡한 것들입니다 질감이나 모양, 크기, 각도, 조명같은 것들이 다를 수 있잖아요 기술적으로 어려운 문제입니다 하지만 우리는 기쁘게도 이 부분에서 많은 진보를 이루었습니다 이제 제가 오늘 말할 마지막은 어떻게 렌즈가 실시간으로 작동하게 만들었냐는 겁니다 스타일 매치의 예시에서 보셨다시피 카메라를 켜서 보기 시작하면 즉각적으로 렌즈가 모든 정보를 주도적으로 보여줍니다 심지어 여러분이 보는 것들의 정보를 고정시켜 놓기도 합니다 이런 것들은, 수십억 개의 단어, 구문, 장소, 물건들을 샅샅이 조사하는 것들은 여러분이 필요로 하는 것을 실시간으로 제공하기 위한 것으로 머신 러닝이 없다면 불가능하죠 우리는 기기의 지능만이 아니라 클라우드 TPU의 힘까지 두 개 모두를 사용합니다 클라우드 TPU는 작년 개발자 회의에서 발표한 것으로 이를 완성했죠 정말 신나네요 시간이 지나면서 우리가 하고 싶은 것은 모든 것들 위에 직접적으로 생생한 결과를 오버레이하는 것입니다 가게 앞이나 거리 표지판, 콘서트 포스터같은 것들 위에요 그래서 휴대폰을 찰리 푸스의 콘서트 포스터에 그저 대기만 하면 뮤직 비디오가 바로 재생되는 것처럼 그런 일들을 하고 싶어요 카메라가 단순히 질문의 대답을 해주는 것뿐만 아니라 질문이 있는 곳에 대답을 넣어주는 예시입니다 매우 흥미로운 일이죠 스마트 텍스트 선택 스타일 매치, 실시간 결과들이 몇 주 안에 렌즈에서 출시됩니다 계속 지켜봐 주세요 구글이 어떻게 카메라에 AI를 적용시켜 여러분 주변의 일을 해결할 지에 대한 예시들이었습니다 AI와 지도 제작, 컴퓨터 비전을 현실의 문제 해결에 적용시키려면 자율주행차량보다 더 현실적인 것은 없을 겁니다 여기에 대해 말씀드리기 위해 웨이모의 CEO인 존 크라프시크씨를 모시겠습니다 감사합니다 모두들 안녕하세요! 웨이모CEO 존 크라프시크 오늘 구글의 친구들을 무대에서 만나게 되어 너무 즐겁네요 저는 이번에 쇼어라인에 처음으로 오게 됐지만 우리 자율주행차는 처음이 아닙니다 2009년에 이 씨어터 바로 바깥 주차장에서 처음으로 자율주행기술의 시험들이 이루어졌습니다 구글의 기술자들, 로봇 연구가들과 연구자들이 있는 이 곳에서 차들이 스스로 운전할 수 있다는 것을 실제로 검증하기 위한 말도 안 되는 미션이 시작되었습니다 그 당시에는 대부분의 사람들이 자율주행차에 대해서 공상 과학일 뿐이라고 생각했습니다 그러나 이 헌신적인 몽상가들은 자율주행차량이 모두에게 교통을 더욱 안전하고 간편하고 접근 가능하게 할 것을 믿었습니다 그렇게 구글의 자율주행차량 프로젝트가 시작되었습니다 빠르게 2018년으로 돌아와서 구글의 자율주행차량 프로젝트는 이제 웨이모라고 불리는 독립적인 알파벳의 자회사입니다 손보고 연구하는 것을 넘어서 발전해왔습니다 오늘날 웨이모는 전세계에서 유일하게 공공 도로에서 운전석에 아무도 없이 운전하는 완전한 자율주행차량 군단을 갖췄습니다 애리조나주 피닉스의 사람들은 이미 완전한 자율주행을 경험해 봤습니다 한 번 보시죠 자율주행 첫 날입니다 준비됐나요? 갑시다! 기분이 좀 이상하네요 이것이 미래입니다 저 여자분을 보세요 "아무도 운전 안 하고 있는데?" 알고 있었어! 이걸 기다렸지 아무도 운전을 안 한다는 걸 전혀 몰랐어요 요! 자동차! 셀카찍자! 자동차야, 고마워 자동차야, 고마워 아주 멋있죠 여기 나오신 분들은 웨이모의 초기 탑승 프로그램 참가자들입니다 일상에서 우리 자율주행차를 사용한 일반인들이시죠 작년 한 해 동안 이 초기 탑승자들과 얘기를 나눌 기회가 있었습니다 그 분들의 이야기는 굉장히 고무적인 것들이었습니다 초기 탑승자들 중 한 명인 네하는 어렸던 십대 시절에 비극적인 사고를 목격했습니다 네하가 운전면허를 따기 무섭게 만들었습니다 하지만 이제 네하는 매일 웨이모를 타고 출근합니다 짐과 바바라는 더 이상 늙어서 돌아다닐 힘이 없을 때를 걱정할 필요가 없습니다 그리고 잭슨 가족이 있습니다 웨이모는 빽빽한 잭슨 가족의 스케쥴을 진행시켜 줍니다 카일라와 요셉을 학교 통학과 친구들과의 연습이나 만남에 데려다줍니다 이제 공상 과학이 아니죠 자율주행기술을 만들 때 우리가 목표로 한 사람들이 바로 이런 사람들입니다 2018년에 들어서 자율주행차량은 벌써 사람들의 삶과 행동을 바꿨습니다 피닉스가 웨이모의 운전자 없는 교통 서비스의 첫 번째 무대가 되어 올 해 하반기에 출시될 것입니다 조만간 누구나 우리 앱을 사용해서 웨이모를 부를 수 있게 될 겁니다 완전한 자율주행차량이 멈춰 서면 아무도 운전석에 없지만 목적지까지 데려다줄 겁니다 이건 그저 시작일 뿐이죠 왜냐하면 웨이모에서 우리는 단지 더 나은 차를 만드는 것이 아니라 더 나은 운전자를 만드는 것이기 때문입니다 그리고 그 운전자는 모든 앱에서 사용될 수 있을 것입니다 택시 요청, 물류, 개인 차량이나 대중 교통수단과 사람들을 연결시켜주는 데까지도요 우리의 기술은 이 모든 다른 산업들에서 사용 가능하다고 생각합니다 많은 회사들과 동업하여 자율주행의 미래가 모두의 현실이 되도록 하겠습니다 그리고 이 미래는 우리가 AI에 했던 투자와 AI의 약진으로 가능해졌습니다 옛날을 돌아보면 구글은 아마도 그 당시에 이 세상에서 유일하게 AI와 자율주행기술에 동시에 투자한 기업일 겁니다 구글이 음성 인식, 컴퓨터 비전, 이미지 검색 등을 통해서 머신 러닝에 주요 진보를 만들기 시작했을 때 웨이모는 그 수혜를 받을 특별한 위치에 자리했습니다 예를 들면, 2013년에 우리는 보행자 탐지의 돌파구가 될만한 기술을 찾고 있었습니다 다행스럽게도 구글은 딥 러닝이라는 새로운 기술을 이미 효율적으로 사용하고 있었습니다 딥 러닝은 머신 러닝의 한 종류로 다양한 층에 신경망을 만들어 좀 더 복잡한 문제를 해결할 수 있게 합니다 그래서 우리의 자율주행 기술자들은 구글 브레인 팀의 연구원들과 팀을 이루어서 겨우 몇 달만에 보행자 탐지의 오류 발생률을 100배 줄였습니다 네 100%가 아니라 100배요 그리고 오늘날

감사합니다 오늘날 AI는 자율주행 시스템에서 더욱 큰 역할을 하고 있습니다 우리의 능력을 개방하여 진정한 자율주행을 만들어냈습니다 머신 러닝이 현재 길거리에서 보이는 안전하고 능숙한 웨이모의 운전자들을 어떻게 머신 러닝이 만들어냈는지 더 자세히 알려드리기 위해 드미트리를 소개하겠습니다 감사합니다 웨이모 자율주행 기술 총괄 드미트리 돌고프 좋은 아침입니다 이 자리에 서게 되어 영광입니다 웨이모에서 AI는 우리 시스템의 모든 영역을 관장합니다 인지에서 예측으로, 의사 결정으로, 지도 제작으로 그리고 더 많은 것들까지도요 유능하고 안전한 운전자가 되기 위해서는 우리 차량은 주변 세상을 의미론적으로 깊게 이해해야만 합니다 우리 차량은 물체를 이해하고 분류해야만 하고 물체의 움직임을 분석하고 그 의도를 판단하고 앞으로 뭘 할 것인지 예측할 수 있어야 합니다 각각의 물체들이 다른 것들과 어떻게 상호작용할 지 이해해야만 합니다 그리고 마지막으로 우리 차량은 모든 정보를 이용해서 안전하고 예측가능한 방식으로 작동해야만 합니다 그래서 말할 필요도 없이 자율주행차량을 만드는 데는 많은 것들이 요구됩니다 오늘 제가 말 할 두 영역은 AI가 큰 영향을 준 영역으로 인지와 예측입니다 첫 번째, 인지입니다 물체를 탐지하고 분류하는 건 운전에 있어서 중요한 부분입니다 특히 보행자들은 특별한 시련을 만들어주는데 다양한 형태와 자세, 크기로 나타나기 때문입니다 예를 들어서 건설업 종사자가 맨홀 밖을 쳐다보고 있습니다 몸의 대부분은 보이지 않겠죠 여기는 길을 지나는 보행자가 나무 판자에 가려져있네요 그리고 여기를 보시면 보행자가 공룡 옷을 입고 있네요 우리는 차에게 쥬라기 시대에 대해서 가르쳐주지 않았습니다 하지만 여전히 차는 그것들을 올바르게 분류할 수 있습니다 이 보행자들을 탐지하고 분류할 수 있는 이유는 딥 넷을 적용하여 센서 데이터를 통합했기 때문입니다 전통적으로 컴퓨터 비전에서 신경망은 카메라 이미지와 영상에서만 이용되었습니다 하지만 우리 차는 카메라보다 훨씬 많이 가지고 있죠 물체의 형태와 거리를 짐작할 수 있는 레이저와 물체의 속도를 계산할 수 있는 레이더도 장착되어 있죠 머신 러닝을 이 통합된 센서 데이터에 적용시킴으로써 어떤 형태의 보행자든 실시간으로 정확하게 탐지할 수 있습니다 머신 러닝이 웨이모를 위해 놀랍게 큰 일을 해 준 두 번째 영역은 도로 위의 사람이 어떤 행동을 할 지 예측하는 것입니다 사람들은 보통 우리의 예측대로 행동하지만 가끔씩은 그렇지 않습니다 여기 빨간불에 달리는 차의 예시를 보시죠 불행스럽게도 우리는 이런 일을 생각보다 자주 봅니다 이것을 자동차의 시점에서 분석해보겠습니다 차가 교차로에서 직진을 하려고 합니다 분명히 초록불이죠 그리고 교차로는 빨간불로 멈춰 있네요 하지만 교차점에 막 진입하는 순간 오른쪽에서 빠르게 다가오는 차량이 보이네요 우리 모델은 이것을 감속해야 할 차량의 이상 행동이라고 이해했습니다 차량이 빨간 불에도 계속 달릴 것으로 예측하고 우선 속도를 줄였습니다 여기 붉은 장애물에서요 빨간불에서도 달리는 차량에게 우리 앞으로 지나갈 공간을 준 거죠 다른 차량을 치는 걸 막기는 거의 불가능해 보이지만요 이런 종류의 변칙을 탐지할 수 있는 건 우리 ML 모델을 다양한 예시로 훈련시켜왔기 때문입니다 현재 우리 군단은 공공 도로에서 6백만 마일이 넘게 자율주행을 해봤습니다 실제 상황을 수억 개 이상 지켜볼 수 있었던 거죠 그런 관점에서 볼 때 우리는 매일 보통 미국인의 일 년 주행량보다 더 많이 운전을 한다는 거죠 그저 좋은 알고리즘보다는 더 많은 것이 자율주행차량에 필요합니다 굉장히 튼튼한 기반 시설도 필요하죠 웨이모에서는 텐서플로우 생태계와 TPU를 포함한 구글 데이터 센터를 이용하여 신경망을 훈련시켰습니다 이제 TPU를 이용해서 우리는 신경망을 15배 더 효율적으로 훈련시킬 수 있습니다 또한 이 튼튼한 기반시설을 이용하여 시뮬레이션에서 우리 모델을 입증했습니다 이 가상 세계에서 우리는 매일매일 이만 오천대의 차와 동일하게 주행을 했습니다 다하면 시뮬레이션에서 50억 마일 넘게 주행을 했죠 이 정도의 규모를 통해 우리 모델의 훈련과 입증 모두에서 빠르고 효율적으로 차량에 새 기술을 가르칠 수 있습니다 우리가 다루기 시작한 새 기술은 어려운 날씨에서의 자율주행입니다 여기 보시는 것처럼 눈이 오는 것 같은 날씨에서요 그리고 오늘 최초로 눈 속에서 자율주행하는 우리 차량이 어떤 모습인지 그 비밀에 가려진 모습을 보여드리겠습니다 이게 어떤 필터도 거치지 않았을 때 자율주행차가 보는 장면입니다 눈보라 속 주행은 어렵습니다 눈송이가 우리 센서에 많은 방해를 하기 때문이죠 하지만 머신 러닝을 이 데이터에 적용함으로써 우리 차량이 보는 것은 이런 모습입니다 우리는 분명하게 각 차량을 구분할 수 있습니다 센서가 방해되는 데도 불구하고요 이런 진보된 능력들을 빨리 공개할수록 우리 자율주행차량들이 더 빠르게 전세계의 더 많은 도시들과 여러분 인근 도시에 보급될 겁니다 우리 자율주행차량이 더 많은 사람들에게 보급되고 도로가 모두에게 더 안전하고 쉽고 접근하기 편한 곳이 될 미래로 우리를 데려다줄 날이 기다려집니다 여러분 감사합니다 이제 젠을 다시 무대로 불러서 우리의 아침 세션을 마치도록 하겠습니다 드미트리 고마워요 AI가 언제나 새로운 방식으로 사람들을 돕는 일에 대해 알아볼 수 있어 좋았습니다 제가 구글에 기술 인턴으로 입사한 게 거의 19년 전이네요 첫 날 문을 열고 들어갔을 때부터 제가 항상 생각하는 것은 기술의 영역과 기술의 가능성 확장에 헌신할 것이었습니다 사람들의 실제 삶에 영향을 줄 제품들에 주력하는 것과 함께요 그리고 세월이 지나면서 저는 여러번 목격했습니다 어떻게 기술이 실제로 변화된 역할을 수행하는 지를요 검색이나 지도같은 제품 초기에서 구글 어시스턴트같은 새로운 영역으로 변화했죠 오늘날의 구글을 보면 그 초기의 가치가 여전히 살아 숨쉬고 있는 것을 볼 수 있습니다 우리는 계속해서 여러분과 함께 모두를 위한 제품과 중요한 제품을 만드는데 전념하겠습니다 우리 스스로의 목표를 더 높이고 책임감 있게 사회와 세상에 공헌하도록 지속적으로 포부를 품겠습니다 진짜 모두를 위한 제작을 하려면 다양한 관점들이 혼합되어야 합니다 그게 바로 우리가 올해 개발자 회의를 확대하여 더 많은 목소리들을 들으려고 한 이유입니다 남은 삼일간 추가 연설자들을 초대하여 디지털 웰빙 촉진에서부터 NGO의 미션 달성을 돕는 것까지 모든 분야에서 확장된 역할을 수행하는 기술에 대해서 모두 말해드리겠습니다 물론 그 뿐만 아니라 여러분이 개발자 회의에서 기대한 수백개의 기술 얘기도 있습니다 여러분이 즐기시고 배워가셨으면 좋겠습니다 2018년 개발자 회의에 오신 것을 환영합니다 부디 즐겨주세요 다음 며칠간 자극을 얻으셔서 모두를 위해 좋은 것을 만드는 일을 지속하시기를 바랍니다 감사합니다