How to Upgrade Colab with More Compute (AI Adventures)

YUFENG GUO : 이전에는 AI Adventures에서 우리는 Colab을 훌륭한 방법으로 보았습니다 데이터 과학 및 기계 학습을 시작하기 위해 세계

그러나 일부 모델이 있습니다 오랫동안 실행해야하거나 원하는 더 많은 메모리 또는 GPU를 얻을 수 있습니다 더 많은 컴퓨팅 성능으로 Colab을 어떻게 연결할 수 있습니까? 계속 지켜봐 주시기 바랍니다 AI Adventures에 오신 것을 환영합니다 예술, 과학, 기계 학습 도구

제 이름은 Yufeng Guo이며이 에피소드에서 우리는 구글 클라우드 플랫폼의 딥 러닝을 사용할 것입니다 Colab 환경을 지원하는 VM 몇 에피소드 전에, 우리는 어떻게 머신 러닝을 선택하여 딥 러닝 VM 생성 프레임 워크 오늘은 해당 VM을 사용하고 Colab을 연결합니다 해당 머신의 리소스를 활용할 수 있습니다 시작하려면 물론 VM을 만들어야합니다 그리고 그것을 큰 것으로 만들어 봅시다 클라우드 마켓 플레이스로 향하십시오

딥 러닝 VM을 찾아서 선택하겠습니다 승인 이제 매개 변수를 선택합니다 이름을 지어 봅시다 colab-box라고 말하십시오

그리고 좋은 측정을 위해 우리는 8– 아니오, CPU 16 개, 메모리 약 60 기가? 그리고 이제 GPU를 위해 V100을 선택합시다 그리고 우리는 그들 중 두 가지를 가질 것입니다 네 이제 우리는 요리를하고 있습니다

우리가 그것을 기다리는 동안 우리가 어떻게 얻을지에 대해 조금 이야기 해 봅시다 VM과 대화하기위한 Colab 우리가 사용할 두 가지 트릭이 있습니다 이 연결을 가능하게합니다 첫 번째는 Colab이 실제로 로컬 런타임에 연결하십시오 로컬 Jupyter Notebook Server가 실행중인 경우 랩톱에서 말하면 Colab을 사용할 수 있습니다 그 서버의 프론트 엔드로 원한다면 일반적인 Jupyter Notebook 프런트 엔드보다 Colab의 오른쪽 상단 메뉴에서 액세스 할 수 있습니다

우리가 활용할 두 번째 요령 딥 러닝에서 포트 포워딩을 할 수 있다는 것입니다 액세스 할 수 있도록 방금 생성 한 VM 로컬 컴퓨터에서 여기에 표시된 명령으로이를 수행 할 수 있습니다 실제 로컬 터미널에서 실행하십시오 Cloud Shell이 ​​아닌 컴퓨터에서 이 특별한 상황에서, 우리는 포워드하기를 원하기 때문에 실제로 로컬 컴퓨터에 명령을 실행하여 Cloud Shell에서는 실제로 목표를 달성하지 못합니다 Cloud Shell로 포트를 전달할 필요가 없습니다

일반적으로이 포트 전달 설정 Jupyter에 액세스 할 수 있다는 의미 일뿐입니다 로컬 프런트 엔드의 서버 하지만 우리가 Colab을 열고 말해 주면 로컬 런타임에 연결하기 위해 해당 로컬 런타임 실제로 포트가 전달 될 것입니다 딥 러닝 VM에서 따라서 두 사람이 연결됩니다 이제 둘을 함께 연결하면 실제로 두 개의 V100이 있습니다 Colab 프론트 엔드에서 GPU를 실행하고 액세스 할 수 있습니다 이제 Colab과 딥 러닝 VM을 이해했습니다

함께 작업하고 설정을 얻는 방법을 기반으로 당신의 요구가 어떻게 변화하는지에 대해 프론트 엔드는 어떻게 생겼는지 백엔드 시스템이이를 주도하고 있습니다 예를 들어 로컬 백엔드에 대해 개발할 수 있습니다 처음에는 더 많은 힘을 얻고 싶을 때 딥 러닝 VM으로 이동하십시오 데이터 과학 환경을 어떻게 설정합니까? 어떻게 변경하고 유연하게 할 수 있습니까? 그리고 필요에 따라 성장? 아래 의견에 알려주십시오 Cloud AI Adventures 에피소드를 시청 해 주셔서 감사합니다 그리고 당신이 그것을 즐겼다면, 최신 에피소드를 모두 얻으려면 구독하십시오

그들이 나올 때 지금은 딥 러닝 VM으로 향하십시오 Colab Notebook과 연결해보십시오 [음악 재생]