Deep Learning Images for Google Compute Engine

[음악 재생] VIACHESLAV KOVALEVSKYI : 안녕하세요 오늘은 깊은 학습 이미지에 대해 이야기하겠습니다

Google Compute Engine 용 그리고 이것은 흥미로운 주제입니다 그리고이 주제의 본질은 흥미 롭습니다 많은 모임과 많은 활동 활동이 끝날 때까지 보여주는 방법 새롭고 멋진 것을 만들어야합니다 그러나 깊은 학습 이미지는 도구이며, 자신의 프로젝트에서 사용해야하는 도구 아마 오늘 우리는 가지 않을거야

당신이 만들 수있는 특별한 멋진 것들을 망라합니다 나는이 도구를 설명하려고 노력할 것이다 그리고 사람들이 어떻게 활용하는지 알게 되길 바랍니다 이 도구는 자신의 프로젝트에 있습니다 그래서 우리가 깊은 학습 이미지에 대해 말할 것 인 동안, 때때로 나는 다른 명령을 사용할 것이다

일할 때 내 삶을 단순하게 해준다 깊은 학습 이미지와 실제로는 Google Compute 엔진 이것은 GitHub 페이지의 링크입니다 정확히 모든 명령이 있습니다 오늘 내가 보여줄 것입니다

이 링크는 Meetup의 후속 조치 노트에 있습니다 그래서 랩톱을 가지고 있지 않고 그것을 쓰고 싶지 않다면 지금은 절대적으로 괜찮습니다 이것은 설문 조사의 QR 코드입니다 하지만 조금 후에 설문 조사를하겠습니다 이 QR 코드가 다시 표시됩니다

하나의 주된 질문에 대답하면서 시작하겠습니다 깊은 학습 이미지 란 무엇입니까? 깊은 학습 이미지는 기본적으로 다른 VM 이미지 세트 깊은 학습을하기 위해 필요한 모든 것을 갖추고 있습니다 상자 밖으로 연구 몇 가지 핵심 사항이 있습니다 이것은 가상 시스템에 대한 하나의 이미지가 아닙니다

이것은 일련의 이미지입니다 우리는 실제로 서로 다른 이미지를 가지고 있습니다 이것은 모두를 설명하는 그래프입니다 그리고 우리는 나중에이 그래프로 돌아올 것입니다 그러나 요지는 단지 하나의 이미지가 아닙니다

두 번째 요점은 상자 밖에서 작동한다는 것입니다 그래서 그것은 무엇을 의미합니까? 그리고 그것이 실제로 중요한 이유는 무엇입니까? Bob을 만나 봅시다 그래서 Bob입니다 Bob은 깊은 학습을 원합니다 깊은 학습을하기 위해 그는 빌드하고 싶어합니다

자신 만의 가상 머신 깊은 학습에 필요합니다 그렇게하기 위해 Bob이 TensorFlow와 GPU를 사용하기를 원한다면, 그는 실제로 어떤 것을 알아 내야하는지 CUDA의 특정 버전은 TensorFlow에서 필요합니다 과거에 당신 중 누구라도 CUDA로 TensorFlow를 설정하려고 시도했지만, 당신은 아마 심지어 알아낼 수 있습니다 정확한 버전의 CUDA가 필요합니다 간단한 작업이 아닙니다

그건 그렇고, 얼마나 많은 사람들이 설치 했니? 로컬 컴퓨터에서 직접 GPU로 TensorFlow, Mac OS, 또는 구름에? 승인 꽤 많은 수 좋은 그래서 당신은 고통을 압니다 다음으로, 당신이 CUDA를 알아 내면, CUDA가 사용하는 정확한 드라이버를 알아야합니다

그리고 그 드라이버를 설치해야합니다 그런 다음 CUDA를 설치할 수 있습니다 그런 다음 CuDNN의 정확한 버전을 알아 내야합니다 TensorFlow가 필요하며 설치하십시오 그리고 NCCL은 TensorFlow 1

10부터 시작하여, 설치하지 않으면 실제로 작동하지 않습니다 올바른 NCCL 바이너리 그리고 마지막으로 TensorFlow를 설치할 수 있습니다 무언가 잘못되면 아마도 전혀 일하지 않을 것입니다 승인

자, Bob이 VM의 설정을 완료했다고 가정 해 봅시다 몇몇 GPU V100 설정은 다음과 같습니다 그래서 이것은 Bob의 정확한 설정입니다 완료, TensorFlow 1

9, CUDA 90, CuDNN 7, NCCL이 설치되지 않았습니다 합리적인 질문 – 이것이 가능한 최상의 구성인가? 그게 당신이 돈을 최대한 활용할 수있게 해줍니다 인스턴스를 지불하고 있습니까? 이제 기준선을 살펴 보겠습니다 그래서 이것은 속도의 기준선입니다

이것은 우리가 방금 Bob이 논의한 구성입니다 CuDNN 71 및 최신 NCCL로 전환하면, 10 %의 성능 향상 효과가 있습니다 원래 구성으로 가지고 있던 것의 위에 그래서 생각할지도 모릅니다

좋아요 최신 CUDA를 사용하십시오 최신 드라이버, 최신 CuDNN을 설치하고 잊어 버리십시오 그것은 나에게 최대의 성능을 줄 것이다 이 생각이 나타 났을지라도 CUDA 9

1이 출시되면 91이 실제로 느려지는 것을 볼 수 있습니다 TensorFlow 다운 그래서 최신의 것을 사용했다면, CUDA 91이 출시 될 무렵에는 최상의 구성을 사용하고 있지 않습니다

그리고 최신 92를 사용하고 있다면, 당신은 실제로 15 %의 성능 향상을 보입니다 승인 Bob이 실제로 이것을 어떻게 알 수 있습니까? 어떤 구성이 최선인지 그의 특별한 경우에요? 이것을 파악하려면 TensorFlow를 컴파일해야합니다 다른 CUDA를 사용하는 다른 방법은 없습니다

원본에서 컴파일하는 것을 제외하고는 공식 바이너리는 CUDA 90 기간만을 사용하고 있습니다 당신은 다른 것을 사용할 수 없습니다 그런 다음 특정 모델로 실험을 실행해야합니다

인스턴스에서이 새로운 TensorFlow 실제로 컴파일 한 파일은 후원 그리고 약 12 ​​개의 바이너리를 빌드해야합니다 세 가지 다른 CUDA가 있습니다 두 가지 다른 CuDNN이 있습니다 두 가지 NCCL 옵션이 있습니다

그리고 [? Anton 's?] Python 2, Python 3 사용에 관해 말하기 따라서 소스에서 컴파일해야하는 12 개의 바이너리 새로운 Nvidia 스택이 출시되면, 또는 새로운 TensorFlow가 출시되면 이 모든 것을 처음부터 시작해야합니다 성능은 실제로 새로운 스택으로 변경되기 때문입니다 그리고 이것은 정확하게 우리 팀이 플레이하는 곳입니다

우리는 정확하게 파악하는 데 집중하고 있습니다 어떤 깊은 학습 프레임 워크의 특정 구성 하드웨어에서 최대한의 성능을 끌어낼 것입니다 Google Compute Engine에 있습니다 그래서 우리는 각각의 새로운 그것을 컴파일하는 방법을 공개하십시오 당신 돈의 Google Compute에서 보유하고있는 내용과 TensorFlow의 공식 이미지에 포함 된 엔진 방금 다운로드 할 수있는 차이점이 표시됩니다

CUDA와 함께 우리는 92를 사용하고 TensorFlow는 90을 사용합니다 우리는 같은 CuDNN 있습니다

우리는 NCCL을 사용하고 있습니다 사실 110 [INAUDIBLE]도 NCCL 사용을 시작합니다 우리는 MKL을 사용하고 있습니다 CPU 인스턴스 만위한 MKL

그리고 MKL이 무엇인지 모를지라도, 비 GPU 인스턴스의 MKL이 당신을 포기할 수 있습니다 5 배의 성능 향상 5 번과 마찬가지로 빨리 비교할 수있는 무언가가 있습니다 공식 빌드 승인

그래서 이것은 당신이 이미지의 내부에 들어가는 것입니다, 이미 사전 구축, 구성 및 작동 준비가 완료되었습니다 이제,이 깊은 학습 이미지가 어디에 적합한 지 물어볼 수 있습니다 우리의 모든 다른 제품 중에서 Kubeflow가 있습니다 우리는 기계 학습 엔진을 가지고 있습니다

우리에게는 Colab과 다른 모든 것들이 있습니다 우리가 시장에서 제공하는 것 그래서 당신이 다른 제품의이 마술적인 줄을 본다면, 가장 왼쪽면이 완전히 관리되는 솔루션이라고 가정 해 보겠습니다 Machine Learning Engine 또는 Colab과 같은 것입니다 그리고 오른쪽이 솔루션입니다

데이터 센터와 컴퓨터에있는 것입니다 그리고 기본적으로 오른쪽 저쪽에있는 어딘가에, Google Compute Engine이 있습니다 당신은 당신이 원하는 것을 무엇이든 할 수 있습니다 아마 어딘가에 Kubernetes와 Kubeflow가 있습니다 아직 완전히 관리되지 않았습니다

GCE에서 기계에 접근 할 수있다 비록 당신이 Kubernetes를 달리고 있다고하더라도 이 멋진 남자의 인용문을 보여 드리죠 또한이 인용문이 무엇인지 기억하는 사람은 누구입니까? 이 견적을 누가 기억합니까? 그것은 오래된 인용문입니다 괜찮아

승인 승인 나는 한 손을 본다 관객 : Google 검색 사람들이 Google 검색을 잘못 입력 한 경우 VIACHESLAV KOVALEVSKYI : 닫기

하지만 실제로 그는 아마도 두 번 말했을 것입니다 누가 알아 그러나 그가 언급했을 때 한 가지는 Google Cloud가 처음 출시되었을 때 단 하나의 헌금이있었습니다 우리는 App Engine을 가지고있었습니다 App Engine은 정말 좋은 기술이었습니다

시장에 출시 된 최초의 서버리스 기술이었습니다 저 밖에 그러나 문제는 고객이 완전히 준비 됐어 그들은 투자 할 자원이 없었고, 그 당시에 모든 것을 브랜드로 옮기기 이전에는 볼 수 없었던 새롭고 새로운 접근 방식 그래서 에릭 슈미트 (Eric Schmidt) 우리는이 밝은 미래를 가지고 있습니다

그러나 우리는 고객이 현재있는 곳에서 고객을 만나야합니다 그리고 Google Cloud는 실제로 Google Compute를 도입했습니다 엔진 이제 우리의 깊은 학습 이미지가 바로 여기에 있습니다 그들은 자신의 솔루션을 가지고있는 곳입니다

당신은 당신 자신의 연구 파일, 논리를 가지고 있습니다 자신 만의 스핀 업 클러스터 솔루션이 있습니다 지금 원하지 않거나 어디로 든 이동할 수 없습니다 지금은 투자 할 수 없습니다 그러나 당신에게는 많은 유산이 있습니다

어딘가에 그것을 실행해야합니다 따라서 TensorFlow 또는 GPU로 실행해야하는 경우 GPU, 당신은 우리의 고객입니다 그것을 다룰 수있는 최상의 이미지를 만들어 낼 것입니다 승인 사용 방법? 이미지를 사용하는 몇 가지 방법이 있습니다

실제로 두 가지 가능한 주요 용도 우리는 UI 또는 CLI입니다 UI는 매우 단순하고 자기 탐색 적입니다 나는 그 부분을 실제로 만질 것입니다 나는 CLI, Common Line Interface 및 그 것들에 중점을 둘 것이다

너 알아야 해 그래서 당신이해야 할 첫 번째 일은 깊은 학습을 통해 인스턴스를 만들고 싶다면 이미지는 어느 특정 풍미를 알아 낸다 당신은 사용하고 싶습니다 이것은 현재의 맛의 그래프입니다 우리가 지금 제공하고있는 것 보시다시피, 우리는 두 가지 주요 프레임 워크, TensorFlow 및 PyTorch

그리고 만약 당신이 뭔가 다른 것을 필요로한다면, 말 그대로 CUDA가 필요합니다 CUDA의 다른 버전과 공통점이 있습니다 그래서 우선, 우리는 알아낼 필요가 있습니다 어떤 특정한 향기를 사용하고 싶습니다 이것은 이미지 패밀리라고도합니다

이 특정 예에서는 우리가 가족을 사용하고 있습니다 TensorFlow는 CUDA 92에서 최신 버전입니다 이것은 가족이 지정된 곳입니다 그리고 얼마나 많은 사람들이 만들고 있습니다

Google Compute에서 인스턴스를 생성하고 재생했습니다 엔진 또는 과거의 다른 클라우드 공급자? 꽤 많은 수 좋은 따라서 Google Compute Engine에서 인스턴스를 만드는 경우, 이미지의 패밀리를 지정할 수있는 기능이 있습니다 Docker 태그를 사용했다면 가족에 관해 생각할 수 있습니다

항상 최신 Docker Container를 가리 킵니다 그리고 내가 여기에서 멈춘 이유는, 문제에 대해 이야기하고 싶습니다 이미지 패밀리 또는 Docker Containers의 태그를 사용합니다 문제는, 만약 당신이 항상 최신의 것을 지적한다면, 이런 기회가있을거야 결국 나타납니다

이것은 NumPy 커뮤니티입니다 기본적으로 그들이 새로운 NumPy를 발표 할 것이라고 전 세계에 알리고 있습니다 그리고이 새로운 NumPy는 많은 것을 소개했습니다 많은 청소 그리고 이것은 많은 고객들에게 영향을 줄 수 있습니다

실제로 고객을 알고 있습니다 이 업데이트 된 NumPy로 인해 영향을 받았습니다 정확하게 이것 가족을 이용하고 있거나, Docker Container 최신 버전 사용, 아마도 최신 업데이트 보안 수정 때문에이 NumPy가 이미 포함되어 있습니다 이 NumPy가 가지고있는 것

그리고 아마도 당신을 망칠 것입니다 따라서 Docker 또는 이미지를 사용하는 경우, 직접 가족을 사용하는 것으로 전환해야합니다 다음 파이프 라인을 사용하여 제작합니다 3 단계입니다 가족으로부터 최신 이미지를 얻고 있습니다

솔루션으로 테스트하고 있습니다 그리고 당신은 자극적으로 그것을 사용하고 있습니다 언제나 이걸 좋아하세요 제발, 가족을 직접 사용하지 마세요 프로덕션에서 사용하는 경우 생산이란 교통을 제공하는 것이 아닙니다

나에게 오늘의 프로덕션은 내가 보여줄 나의 데모이다 그리고 내 데모에서는 정확한 이미지를 사용하려고합니다 당신이 추출 할 수있는 명령이 있습니다 정확하게 이미지 이름 그리고 오늘 저는 TensorFlow 최신 CPU를 사용할 것입니다

정확한 해쉬 이것은 기본적으로 사용할 이미지입니다 그리고 이제 나는 가족으로부터 나의 명령을 바꾸고있다 실제 이름으로 두 번째 – 이미지 프로젝트

우리는 실제로 일부 고객을 보유하고 있습니다 인스턴스를 만들 때, 프로젝트에 프로젝트를 설정하고 있습니다 그러나 이것은 우리의 이미지 인 이미지를 호스팅하는 프로젝트입니다 정책을 유지하십시오 문제는 GPU를 사용하는 경우, 인스턴스를 다른 하드웨어로 실시간 마이그레이션 할 수 없음 기계

이건 매우 중요합니다 그리고 이것을 고려할 때 이것을 알아야합니다 유지 관리를 위해 GPU를 사용하는 경우, 유일한 방법은 인스턴스를 실제로 종료하는 것입니다 다음 부분은 인스턴스를 만들고 싶다면, 당신은 그 가속기가 어떻게 또는 무엇인지를 설정하고 있습니다 당신이 사용하기를 원합니다

이것은 중요한 부분입니다 특정 가속기를 선택할 필요가 없다 우리가 가지고있는 넷에서 지역에 대해 스스로를 교육해야합니다 거기에 존재한다

잘못된 지역을 지정하는 경우 가속기가 존재하지 않으면 작동하지 않습니다 그리고 올바른 영역을 설정 한 후에, 정확한 액셀러레이터 올바른 액셀러레이터를 설정하는 방법 인스턴스에 연결할 것입니다 금액이 존재하지 않으면, 다시, 인스턴스를 생성 할 수 없습니다 예를 들어, 테슬라 v100 및 네 개의 테슬라 v100이 있습니다 우리는 아직이 구성을 지원하지 않습니다

그리고 마지막 하나 – 이 부분은 기본적으로 Google에 허가권을 부여합니다 Nvidia 드라이버를 설치해야합니다 문제는 이미지가 미리 설치된 CUDA 인 CuDNN과 함께 제공된다는 것입니다 모든 것은 사전 설정되고 테스트되었습니다 Nvidia 드라이버는 예외입니다

이런 식으로 된 이유는 몇 가지 있습니다 나는 그 특별한 이유에 관해 잠수하지 않을 것이다 하지만이 깃발이 없으면 엔비디아 드라이버가 없습니다 설치된 인스턴스에서 자, 다른 무엇을 조정할 수 있습니까? 필요한 경우 미리 사용할 수있는 플래그를 설정할 수 있습니다

선매는 기본적으로 – 선매품의 개념을 누가 압니까? 승인 그래서 Google Compute Engine에는 이러한 개념이 있습니다 선취 형 인스턴스의 경우 실제로 구매하는 경우 같은 경우지만, 더 싼 가격 때문에, 단 한 가지 단점이 있습니다 이 인스턴스는 언제든지 해제 할 수 있습니다 그래

나는 개인적으로, 내가 선매 사례를 쓰고있을 때마다, 그곳에서 많은 모델을 훈련 시키면, 그러나 때때로, 그것은 아무 것도없이 꺼져 있을지도 모른다 너 어떻게 말하는거야? 어쨌든 이제는 다음과 같은 경우 할당량을 확보해야합니다 당신은 GPU를 만들고 있습니다 따라서 할당량을 요청해야합니다

선점 가능한 인스턴스에 대한 할당량이 할당량과 동일하지 않습니다 정상 인스턴스로 Nvidia P100에 대한 할당량이있는 경우, 선점 형 Nvidia P100에 대한 할당량이 필요합니다 선점 가능한 인스턴스를 시작하려면 다음으로, 이와 같은 명령을 실행하려고한다면, 가능한 가장 작은 인스턴스를 가져옵니다 나는이 사람이 하나의 코어와 1GB 미만의 메모리를 가지고 있다고 생각한다

원하는 경우 지원되는 모든 컴퓨터 유형을 연결할 수 있습니다 다음으로 디스크 유형을 설정할 수 있습니다 이것은 실제로 SSD입니다 우리는 로컬 SSD 디스크를 지원합니다 SCSI 디스크

이것은 기본적으로 측정 및 속도 중 일부입니다 우리는 로컬 SSD 디스크로 당신을 보증 할 수 있습니다 그리고 가장 중요한 것은 새로운 유형을 도입했습니다 실제로 NVMI를 사용하는 로컬 SSD 디스크 인스턴스에 대한 연결 그리고 그것은 당신에게 – 그래서 오래된 것을 가진 상단에 하나, 하단에 하나 새로운 하나 – 나는 두 번 빨리 말하지는 않겠지 만, 훈련을받는 것이 중요합니다

디스크에서 데이터를 읽는 것이 필요합니다 그리고 마지막 하나 범위 이러한 범위는 실제로 필요합니다 TPUs를 사용하고 싶다면

그리고 저는 여기에서 실제로 전환 할 것입니다 콘솔에 두 번째 TPU 노드를 만들려고합니다 우리는 TPU 노드를 만들려고합니다 몇 분 안에 그것을 사용하십시오

그리고 TPU 노드를 몇 분 만에 생성하기 때문에, 지금 TPU 노드를 시작하겠습니다 그리고 네트워크 설정을 누르고 Create를 누릅니다 자, 내가 지금 막 메타 데이터를 지정할 때 Nvidia 드라이버 설치, Google에 허가를 당신을 위해 드라이버를 설치하십시오 실제로 클러스터가있는 많은 고객 클러스터에있는 많은 기계들과 함께, 그들은 부팅 할 때 매우 중요합니다 네 대의 기계가 있다면 네 대의 기계는 각각 8 개가 있습니다

가치가있는 V100을 사용하면 부팅 시간이 3 분, 이미 12 분 동안 돈을 내고있어 그래 네 대의 기계 – 12 분 동안 만 부팅 할 수 있습니다 일반적인 질문 중 하나는 OK입니다 내 컴퓨터 부팅 시간을 줄이려면 어떻게해야합니까? 대답은 간단합니다

인스턴스를 만들려는 이미지를 얻고 있습니다 Google 클라우드에서 가져 왔습니다 우리는 깊은 학습 사례를 만들 수 있습니다 운전수가 설치 될 때까지 기다리고 있습니다 3 ~ 5 분

그것은 끔찍한 일입니다 우리가이 일을하고 있습니다 그리고 이것은 개선 될 것입니다 – 인스턴스 중단 및 자체 학습 작성 그 인스턴스의 이미지 그 간단한, 5 단계와 당신은 자신의 이미지가 있습니다 그리고 그 이미지는이 유명한 15 초 시작 시간을 갖습니다

그 GCE는 다른 이미지를 제공합니다 승인 자, 주요 부분 실제로 우리가 어떻게 사용할 수 있는지 보도록하겠습니다 먼저 주피터 랩을 보여 드리겠습니다

Jupyter Notebooks 또는 Jupyter Lab을 누가 사용 했습니까? 좋은 그래서 가장 중요한 부분은 Jupyter Lab입니다 실제로 인스턴스를 만들어 사용하십시오 그래서 복사하고 하나의 명령을 붙여 넣습니다 방금 방금 슬라이드에서 본 명령입니다

더 크게, 더 크게, 더 크게, 더 크게, 더 크게 만들자 그래서 나는 내 이미지를 가지고있다 인스턴스 이름이 있습니다 나는 구역이있다 가자

기다리 자 아마 20 초 또는 반 분이 걸릴 것입니다 이것이 CPU 인스턴스이기 때문입니다 그것은 Nvidia 드라이버를 설치하지 않을 것입니다 이것은 내가 원래 당신에게 보여준 명령입니다

이 부분은 GPU를 사용하지 않는 경우에는 필요하지 않습니다 그래서 기본적으로 이것은 끝 명령입니다 승인 인스턴스가 나타나는지 봅시다 아니

대개 30 ~ 40 초 빨라집니다 승인 우리가 기다리는 동안, 이것은 작은 개선입니다, 내가 GitHub에서 언급 한 명령 중 하나 인스턴스에 SSH 할 수있게 해주는 명령 예를 들어, gcloud 대신 gssh를 사용하여 ssh를 계산하십시오

인스턴스의 이름을 입력하십시오 작은 개선만으로도 GitHub 페이지에서 찾을 수 있습니다 인스턴스에 연결하려면, 이 gssh INSTANCE_NAME을 실행하고 zone을 지정해야합니다 및 포트 매핑 이게 너 밖에없는 유일한거야

인스턴스가 정상적으로 작동 한 후에해야합니다 Jupyter Lab을 사용하기 시작합니다 인스턴스가 작동 중입니다 그럼 실제로 해보 죠 내 명령을 복사 해 붙여 보자

이미지를 실시간으로 연결하고 있습니다 브라우저로 가자 로컬 호스트 8080을 열자 여기 Jupyter가 있습니다 GPU로 인스턴스를 만들려면 Jupyter가 있어야합니다

V100과 함께 GPU를 갖게됩니다 문자 그대로 다른 것을 할 필요가 없습니다 인스턴스 시작을 제외하고 우리는 이미 Jupyter를 돌고 있습니다 백그라운드에서 포트 8080에서 수신 대기 중입니다 너를 위해 남겨둔 유일한 것 실제로 브라우저를 여는 것입니다

그것은 문자 그대로입니다 이제, 다음 유스 케이스 다음 유스 케이스는 Colab입니다 누가 콜랩을 사용 했습니까? 승인 그래서하지 않은 당신들을 위해 콜랩이 무엇인지 보여 주도록하십시오

Colab은 기본적으로 Google 서비스입니다 클라우드의 노트북입니다 그것은 노트북과 매우 유사합니다 실제로 유사한 유스 케이스를 제공하지만, 하지만 완전히 호스팅되었습니다 그래서 당신은 뒤에 기계가 없습니다

그러나 이것은 몇 가지 함축을 만듭니다 내가 그 의미를 정확하게 보여 주도록하겠습니다 따라서 Google Cloud 프로젝트가있는 경우, 그리고 당신은 당신의 기계를 가지고 있습니다, 당신은 TPU를 안으로 가지고 있습니다, 당신이 Colab과 함께 사용하고 싶다면, 당신은 할 수 없습니다 Colab에는 Google Cloud에 대한 개념이 없기 때문에 계획 Google 클라우드 프로젝트가 있다는 것을 이해하지 못합니다

거기에있는 어떤 리소스에도 연결할 수 없습니다 그러나 랩톱 컴퓨터가 있습니다 그리고 당신의 노트북에는 연결이 있습니다 포트 매핑 8080으로 인스턴스에 연결 우리가 방금 본 이유는 정확하게 Jupyter Lab을 여는 중입니다 그리고 당신의 인스턴스는 TPU에 연결되어 있습니다

이제 마지막 부분이 누락되었습니다 포트 8080에서 Colab을 노트북에 연결하는 것입니다 그리고 이것은 정확하게 기능입니다 우리가 몇 주 전에 발표 한 이제 우리는 깊은 학습 이미지를 사용할 수있게되었습니다 Colab의 백엔드로

그리고 그것은 매우 간단하게 작동합니다 콜랩으로 돌아가겠습니다 그래서 이것은 공식 Colab입니다 폰트를 늘려 보자 이것이 공식 Colab임을 다시 한 번 확인하겠습니다

TensorFlow의 버전을 봅시다 실제로 여기에 설치되어 있습니다 그것은 뭔가를하고 있습니다 그리고 그것이 결국 효과가 있기를 바랍니다 1

9이어야합니다 예, 19입니다 클라우드의 공식 버전이기 때문입니다 이제 로컬 런타임에 연결을 눌러 보겠습니다

기본적으로이 작업은 Colab 내 로컬 런타임에 그리고 항구는 8080입니다 그리고 지금 내 컴퓨터는 포트 8080에 있습니다 깊은 학습 VM의 포트 8080의 거울을가집니다 우리가 가진 사례

연결을 눌러 보겠습니다 그게 전부 야 이제 Colab은 원격 컴퓨터를 사용하고 있습니다 따라서 TensorFlow 19를 사용하면 어제 VM 이미지를 발표했습니다

TensorFlow 110과 함께 그래, 그래, 110, 그런데, 풀려났다, 네가 소식을 듣지 않았다면 이것은 기본적으로 의미하므로 이제 Colab을 사용할 수 있습니다 원하는 것을 포함하여 PyTorch, 가능한 모든 GPU, 심지어 TPUs

제가 말했듯이, 이제 우리는 깊은 학습을 사용하고 있습니다 백 엔드 이미지, 새로운 노트북을 만들어 보겠습니다 콜랩에서 그리고 우리가 TPU를 가지고 있다는 것을 보여주기 위해서, TPU에 접근하고, 나는 하나의 세포를 운영 할 것이다 그리고 우리는 여기서 그것을 실행할 수 있습니다

하나의 셀만 TPU에 연결됩니다 먼저 내 IP 주소를 알려주십시오 오, 동일, 100101

예 그것은 동일합니다 예 실제로 연결되어 있습니다 그래서 작동합니다

이제 TPU에 Colab을 사용할 수 있습니다 내가 말했듯이, 당신은 무엇이든 할 수 있습니다 깊은 학습 이미지를 갖춘 Colab, PyTorch, 가능한 모든 GPU 이제 우리가 일반적으로하는 또 다른 질문입니다 고객이 VM 이미지를 가지고있다

아나콘다를 어떻게하면됩니까? 나는 아나콘다를 사용하고 싶다 그리고 이것은 좋은 일입니다 아나콘다 시나리오에는 몇 가지 문제가 있습니다 그리고이 문제의 원인은 아나콘다를 설치 한 경우, Anaconda 내부에 새로운 가상 환경을 만드는 경우, 해당 환경 내에 TensorFlow를 설치해야합니다 어떻게 할 수 있니? 공식 TensorFlow를 설치하려는 경우, 공식 TensorFlow에 필요하기 때문에 작동하지 않습니다

CUDA 90, 우리는 92입니다 이를 지원하기 위해 우리는 실제로 바이너리 제공, Google Compute Engine 최적화 바이너리 이미지의 내부에서 미리 구워집니다 따라서 설치가 가능합니다

이것은 작은 스크립트입니다 공식 문서에 기본적으로 경로를 인용하고 있습니다 바이너리를 미리 굽고 있습니다 그런 다음 아나콘다 내부 깊숙히 설치하면됩니다 환경

승인 다음으로, 붙어 있다면 도움을 얻을 수있는 방법 우리는 당신을 지원하기 위해 다양한 채널을 보유하고 있습니다 물론 우리에게는 공식적인 문서가 있습니다 하지만 다른 것을 원한다면 다른 블로그를 적극적으로 사용하고 있습니다

우리의 이미지에 대한 사례 전용 StackOverflow 태그가 있습니다 우리는 적극적으로 모니터링하고 있습니다 거기에 질문을 제출하십시오 우리는 상당히 적극적인 Google 그룹을 운영하고 있습니다

당신을 도울 다른 사용자와, 나 또는 내 동료가 질문을하기 전에 언제든지 개인용 트위터에서 나를 핑 (ping) 할 수 있습니다 나는 정말로 어떤 질문을해도 감사 할 것이다 너는 나에게 메일을 보낼 수 있고 나는 대답 할 것이다 너희들을위한 가능한 모든 방법

승인 간략하게 요약하면, 심층 학습 이미지 모든 것을 가지고있는 미리 굽은 이미지입니다 다른 아이디어, Jupyter Lab, Jupyter로 시작할 준비가되었습니다 노트북, Colab 백엔드 및 거의 모든 프레임 워크 당신이 상상할 수있는 자, 이것은 정말로 중요한 조사입니다

할 수 있으면, 우리가 이해하도록 도와주세요 VM의 차기 버전에서보고 싶은 것 이미지, 단위 테스트로 추가 할 항목, 우리가 지원하기를 원하는 시나리오 이 설문 조사에 참여하십시오 고맙습니다 그럼이게 내 편이야 와줘서 고마워

더 많은 피자가 아직도 남아 있기를 바랍니다 다음에 너를보고 싶어 [박수 갈채] [음악 재생]