WEBVTT 00:00.350 --> 00:08.060 구글 Colab입니다 GPU 박스를 이용한 클라우드에서의 첫 협업 세션이죠 00:08.090 --> 00:15.110 T4 박스에 연결했습니다 하위 사양 중 하나죠 00:15.350 --> 00:16.880 여기 리소스가 보이시죠 00:16.880 --> 00:24.170 이걸 실행하면 GPU 대부분을 채울 수 있죠 런타임으로 가서 재시작 00:24.200 --> 00:31.520 세션을 했어요 그래서 GPU 메모리가 아무것도 안 된 거죠 00:31.520 --> 00:36.230 어쨌든 방해되지 않게 이 스크린을 제거할게요 00:36.680 --> 00:37.550 됐어요 00:37.940 --> 00:41.210 콜랍 좀 보세요 00:41.210 --> 00:47.930 파이프라인의 세계로 시작하겠습니다 얼굴을 끌어안는 트랜스포머 라이브러리에 00:47.960 --> 00:51.710 파이프라인이라는 두 API 레벨이 있어요 00:51.710 --> 00:55.670 오늘의 토큰라이저와 모델에 관해선 나중에 얘기하죠 00:55.670 --> 01:02.920 파이프라인에 관한 거죠 상위 레벨 API 말이에요 일반적인 작업에 대한 추론을 실행하게 01:02.920 --> 01:11.440 합니다 코드 두어 줄로요 프로덕션에서 마찰 없이 오픈 소스 모델을 쉽게 사용하게 해주죠 01:11.950 --> 01:16.360 우리가 사용하는 방법은 아주 간단해요 01:16.690 --> 01:23.920 파이프라인을 호출하고 문자열을 전달합니다 원하는 작업을 전달하죠 01:23.920 --> 01:28.960 여러분이 넘길 수 있는 다양한 것들이 있어요 다양한 문자열이죠 잠시 후에 그게 뭔지 보실 01:28.960 --> 01:29.830 수 있어요 01:29.830 --> 01:35.200 파이프라인 객체를 얻어서 입력으로 호출할 수 있고 get 결과도 얻을 수 있죠 01:35.200 --> 01:36.760 그게 다예요 01:36.760 --> 01:37.930 간단해요 01:38.020 --> 01:44.170 트랜스포머 라이브러리 설치부터 시작할게요 모든 것의 핵심이죠 01:44.170 --> 01:48.640 데이터셋은 얼굴을 포옹하는 데이터셋 라이브러리예요 01:48.640 --> 01:53.890 디퓨저는 트랜스포머의 동반 라이브러리 같은 거예요 이미지를 만들어내는 디퓨전 01:53.890 --> 01:55.210 모델 말이에요 01:55.240 --> 02:02.110 트랜스포머라고 하면 트랜스포머와 형제 라이브러리 디퓨저를 말하는 거예요 02:02.110 --> 02:05.250 이미지를 만들 때 쓰는 거죠 02:05.250 --> 02:07.920 파이프를 설치하고 있어요 02:08.040 --> 02:13.830 a 셀 앞에 저런 느낌표가 있으면 터미널 명령으로 실행하고 싶다는 02:13.830 --> 02:15.330 뜻이에요 02:15.330 --> 02:16.530 실행될 거예요 02:16.530 --> 02:23.970 이 마이너스 Q를 모르신다면 침묵 모드로 설정합니다. 모든 패키지를 설치하는 출력을 얻지 않기 위해서입니다. 하지만 지금은 02:24.000 --> 02:28.020 설치가 빠르게 이루어지고 있습니다. 왜냐하면 아까 이 노트북을 실행해 02:28.020 --> 02:29.790 봤기 때문이죠. 02:29.790 --> 02:33.210 패키지가 설치되는 동안 30이 걸릴 수도 있어요 02:33.510 --> 02:36.030 그런 다음 수입을 할 거예요 02:37.590 --> 02:43.020 Get을 완료하고 나면 파이프라인으로 넘어가죠 02:43.050 --> 02:44.490 Get it, Get it 준비하세요 02:44.490 --> 02:50.220 먼저 감정 분석은 긍정적이거나 부정적인 비트예요 02:50.220 --> 02:56.670 이 말부터 할게요 LM 마스터로 가는 길에 들어서 정말 신나요 02:56.790 --> 02:59.940 좋은 건지 나쁜 건지 모르겠네요 03:00.120 --> 03:03.500 몇 가지 주의할 점이 있어요 03:03.710 --> 03:10.250 먼저, 어떤 모델도 제공되지 않았고 기본값이 이 모델에 있다고 경고하네요 03:10.250 --> 03:16.700 무슨 뜻이냐면 모델 =이라고 입력하면 안는 얼굴 허브에서 어떤 모델을 이 파이프라인의 03:16.730 --> 03:19.790 일부로 사용할 건지 정할 수 있다는 거죠 03:19.790 --> 03:25.160 하나를 제공하지 않으면 해당 작업에 대한 기본값을 선택합니다 오늘 우리 목적에 아주 03:25.160 --> 03:25.880 유용하죠 03:26.090 --> 03:32.600 또 다른 건 환경에서 GPU가 사용 가능하지만 GPU를 사용하라고 하진 않았다는 03:32.600 --> 03:37.430 겁니다 비트는 우리가 좀 이상하다고 생각하죠 03:37.460 --> 03:46.100 장치가 CUDOW와 같다고 하면 그렇게 할 수 있어요 그럼 그 명령은 이 파이프라인을 사용하고 03:46.100 --> 03:51.290 싶다고 하죠 우리가 가진 GPU 덕을 보고 싶다고요 03:52.130 --> 03:57.050 이제 실행했어요 GPU 상에서 실행됐죠 03:57.050 --> 03:59.330 결과도 살펴보는 게 좋겠어요 03:59.330 --> 04:05.050 긍정적인 성명서로 간주되고 있습니다 점수인 자신감 수준도 04:05.080 --> 04:06.460 매우 높고요 04:06.460 --> 04:08.080 좋은 것 같아요 04:08.080 --> 04:11.560 그 문장을 잘 해석한 것 같아요 04:11.560 --> 04:13.960 안 된다고만 해두죠 04:13.990 --> 04:18.010 LLM 마스터가 되는 게 썩 기쁘진 않아요 04:18.040 --> 04:18.970 그럴 리가요 04:18.970 --> 04:22.120 그런 생각은 안 하셨으면 좋겠는데 확인해 보죠 04:22.120 --> 04:27.940 우리가 그렇게 말하면 라벨이 부정적이라는 걸 확실히 인식하고 부정적 04:27.940 --> 04:31.090 선언이라는 걸 확신할 수 있죠 04:31.090 --> 04:35.440 잘 작동하네요 열정적으로 마무리하죠 04:35.470 --> 04:37.630 그렇게 생각하길 바라죠 04:38.080 --> 04:40.720 독립체 인식이 다음 작업이죠 04:40.720 --> 04:44.890 난 파이프라인이나 통과할 테니 당신도 직접 해 봐요 04:44.920 --> 04:50.530 물론 엔터티 인지션은 여러분이 텍스트를 제공하고 모델에게 어떤 종류의 04:50.530 --> 04:53.080 것이 참조되는지 확인하는 거죠 04:53.110 --> 04:56.500 이건 제가 찍은 표준 사진이에요 04:56.530 --> 05:00.310 버락 오바마는 미국의 44대 대통령이었죠 05:00.670 --> 05:13.350 분석을 요청하면 여기에 반응을 해요 두 가지 다른 이름으로 05:13.380 --> 05:15.840 응답하죠 05:15.960 --> 05:22.590 여기 이 텍스트를 보시면 첫 번째 명명된 엔터티의 형식은 사람 이름 당 퍼예요 05:22.950 --> 05:27.030 자신감이 넘치고 이름은 버락 오바마예요 05:27.120 --> 05:33.510 두 번째는 장소 이름인데 미국이라는 뜻이에요 05:33.510 --> 05:38.850 입력에서 어디에 있는지 알려주는 거죠 05:39.300 --> 05:45.570 데이터 과학에서는 아주 흔한 사용 사례입니다 원하는 대로 빨리 할 수 05:45.570 --> 05:46.860 있으면 좋죠 05:47.160 --> 05:53.010 컨텍스트를 이용한 질문 답변 파이프라인을 만들 수 있어요 05:53.010 --> 05:59.250 다시 한 번 이 장치의 CUDU를 이용해 GPU에서 실행하고 누가 미국의 44대 대통령이었는지 05:59.250 --> 06:02.640 컨텍스트를 제공한다고 하죠 06:02.640 --> 06:09.770 검색할 게 있고 결과를 프린트하도록 요청하는데 결과에 대한 놀라운 06:09.770 --> 06:11.480 답변이 없어요 06:11.480 --> 06:12.170 아마도요 06:12.170 --> 06:14.750 이 모델의 힘을 과시하려는 게 아니에요 06:14.750 --> 06:17.930 파이프라인 API의 단순함을 보여주려는 거예요 06:17.960 --> 06:23.420 더 정교한 컨텍스트와 더 나은 질문을 가지고 놀 수 있습니다 다양한 모델을 통과시켜 06:23.660 --> 06:29.540 보는 것도 추천합니다 페이스 허브에서 이용 가능한 다양한 모델을 탐구해 보세요 06:30.110 --> 06:32.780 텍스트 요약도 간단해요 06:32.810 --> 06:35.360 파이프라인도 빼놓을 수 없죠 06:35.360 --> 06:39.770 유형은 요약이고 많은 텍스트를 쓸 수 있어요. Tool karaoke Tool karaoke. 06:39.800 --> 06:44.840 포옹하는 트랜스포머 라이브러리 얘기를 하고 있네요 06:45.290 --> 06:52.760 요약본을 요청하고 짧은 시간 동안 최대 길이로 말하면 get 절차가 짧고 06:52.760 --> 06:56.180 명료한 문장으로 돌아오죠 06:56.300 --> 07:00.530 이미 넣은 걸 토막 내서 얹은 거예요 07:00.530 --> 07:03.590 잘 만들진 못했지만 단순한 모형이었어요 07:03.590 --> 07:07.650 더 나은 모델에서 더 나은 요약본을 탐구할 수 있어요 07:07.920 --> 07:11.400 시간 되시면 통역해 드릴게요 07:11.430 --> 07:13.740 영어로 번역해 주세요 07:13.740 --> 07:14.610 프랑스어로요 07:15.060 --> 07:21.450 데이터 과학자들은 어징 페이스 파이프라인 API의 힘과 단순함에 정말 놀랐죠 07:21.930 --> 07:28.260 프랑스어를 구사하는 모든 분께 어떻게 작동하는지 보죠 07:28.290 --> 07:34.350 고등학교 때 배운 프랑스어가 뛰어나다는 말은 안 하겠지만 허징 페이스 파이프라인의 07:34.350 --> 07:39.720 강력하고 단순한 API에 놀랐다고는 말해 줄 수 있죠 07:39.720 --> 07:45.330 제 프랑스어 실력으로는 꽤 확실한 번역인 것 같네요 07:45.330 --> 07:52.230 아주 쉬운 분류, 혹은 제로 샷 분류라 불리는 건 그냥 예만 주고 일부 07:52.230 --> 07:57.600 라벨을 붙이라고 할 때죠 이전 예는 주지 않고요 07:57.810 --> 08:03.720 그래서 얼굴 껴안기 트랜스포머 라이브러리는 굉장하다고 표현하고 기술, 스포츠, 08:03.750 --> 08:06.150 정치 등으로 분류하라고 했어요 08:06.150 --> 08:08.660 어떻게 작동하는지 보죠 08:09.050 --> 08:15.200 기술 라벨이라고 적혀 있어요 08:15.230 --> 08:20.810 95%의 점수를 받았지만 스포츠와 정치학에서는 아주 낮은 점수를 받았죠 08:20.810 --> 08:21.500 정치요 08:21.500 --> 08:23.090 가장 낮은 수치죠 08:23.180 --> 08:29.360 특히나 기술과 직접적으로 관련된 단어가 없었으니까요 08:29.360 --> 08:31.100 나쁘지 않네요 08:31.430 --> 08:37.340 마지막으로 이 시리즈의 정말 간단한 건 텍스트 생성이에요 08:37.370 --> 08:43.160 H깅페이스 파이프라인을 사용할 때 기억해야 할 게 하나 있다면 그건∙∙∙ 어디 보죠 08:43.190 --> 08:46.910 바닐라 모델을 사용하고 있지만 어떻게 처리하는지 보죠 08:48.830 --> 08:53.240 노틸러스호에서 실행되는 모든 응용 프로그램은 컴파일된 것처럼 안는 얼굴 패키지를 08:53.240 --> 08:54.350 목표로 하죠 08:54.350 --> 08:55.340 비트가 좀 뜬금없죠 08:55.340 --> 08:59.720 전에 했던 검사에서는 결과가 더 좋았어요 08:59.900 --> 09:02.030 얼마나 잘 회복하는지가 중요하죠 09:02.060 --> 09:04.400 모든 프로젝트가 그렇듯 위험 부담을 감수해야 해요 09:04.430 --> 09:05.630 언제 끝까지 밀어붙여야 하는지 기억하세요 09:05.660 --> 09:09.520 어떻게 시작됐는지에 따라 횡설수설하는 거죠 09:09.520 --> 09:13.210 좀 더 재미있는 시작을 해보고 어떻게 되는지 보세요 09:13.210 --> 09:17.260 좀 더 크고 육중한 모델도 시도해 볼 수 있어요 get it get it get it get it get it get it 09:17.290 --> 09:20.980 물론 텍스트 생성에 있어서는 그게 더 정확하죠 09:21.700 --> 09:22.420 네 09:22.420 --> 09:30.970 이제 여러분은 다중 양식의 전문가들이니 이미지 생성을 보여드리죠 09:30.970 --> 09:35.800 지금까지는 트랜스포머 라이브러리를 사용했고 디퓨전 스타일 09:35.800 --> 09:41.590 모델로 영상을 전송하고 있어요 이미지를 생성하는 아키텍처죠 09:41.860 --> 09:50.080 잘 알려진 안정적 확산 모델을 사용하고 있는데 몇 가지 변수를 더 통과시켜야 해요 09:50.110 --> 09:51.010 곧 보시게 될 거예요 09:51.040 --> 09:54.010 우리가 사용하는 데이터 타입을 알려줘야 해요 09:54.400 --> 10:00.640 그 작업을 마치고 GPU 위에 얹으면 텍스트를 줄 수 있어요 10:00.640 --> 10:08.130 살바도르 달리의 초현실적인 스타일로 인공지능을 연구하는 데이터 과학자들이죠 10:08.400 --> 10:11.010 그 이미지를 생성해보죠 10:11.010 --> 10:13.050 이 비트는 시간이 좀 더 걸릴 거예요 10:13.050 --> 10:15.510 좀 더 비트 있는 작업이죠 10:15.750 --> 10:21.390 당신은 더 오래 걸릴 수도 있어요 저는 이미 한 번 실행해봤으니까요 10:21.390 --> 10:26.880 H깅페이스에서 모델을 다운로드해 로컬 디렉터리에 저장했어요 10:26.880 --> 10:30.960 실행하는 데 1분 정도 걸릴 수도 있어요 10:31.200 --> 10:32.970 하지만 시작할게요 10:32.970 --> 10:43.500 이 방에는 데이터 과학자들이 가득합니다 달리의 초현실적인 스타일로 인공지능을 배우고 10:43.500 --> 10:44.490 있죠 10:44.490 --> 10:45.960 정말 좋아요 10:45.990 --> 10:47.760 이 사람들과 닮았어요? 10:47.970 --> 10:52.320 최악의 악몽에서만 그러는 게 아니라 저기도 그랬으면 좋겠네요 10:52.320 --> 10:55.110 초현실적인 달리예요 10:55.140 --> 10:57.840 무섭고 이상한 세상이죠 10:57.930 --> 11:01.350 데이터 과학자치고 정말 마음에 들어요 11:01.380 --> 11:07.530 이걸 플럭스 모델로 대체할 수 있어요 아까 강의에서 11:07.560 --> 11:11.450 코드를 보여드렸죠 11:11.630 --> 11:13.160 네, 그렇게 하세요 11:13.160 --> 11:18.170 시간이 더 오래 걸리고 T4보다 더 우람한 박스로 달려야 해요 11:18.200 --> 11:24.710 A100 카메라로 하면 몇 분이면 숨이 멎을 정도로 멋진 이미지가 완성되죠 11:24.740 --> 11:28.070 지난 강의에서 보여 드린 것처럼요 11:28.280 --> 11:34.520 하지만 저렴한 초고속 모델치고는 괜찮은 것 같아요 11:35.120 --> 11:39.680 마지막으로 오디오 세대예요 11:39.680 --> 11:45.440 텍스트-언어 파이프라인을 사용할 겁니다 어떤 모델을 원하는지 알려주는 거죠 11:45.470 --> 11:49.040 마이크로소프트의 스피치 5 TTS를 원하죠 11:49.040 --> 11:55.820 모델에 제공해야 할 게 좀 더 있어요 비트가 사용해야 할 음성의 종류 11:55.820 --> 11:56.900 같은 거요 11:56.900 --> 12:01.340 얼굴을 안는 것으로 데이터 세트를 로드하는 라인이 몇 개 있어요 12:01.490 --> 12:04.460 Get it으로 모양을 잡아야죠 12:04.460 --> 12:10.270 다 됐으면 파이프라인을 호출하고 인공 지능 엔지니어에게 12:10.270 --> 12:17.140 인사한 다음 이 음성 메시지를 전달할게요 12:17.410 --> 12:24.460 이건 웨이브 파일에 쓸 코드예요 12:24.820 --> 12:34.360 이 콜랍 공책에 그 내용을 담을 거예요 12:34.360 --> 12:36.220 꽤 빨랐어요 12:36.220 --> 12:38.050 소리가 어떤지 들어보죠 12:38.050 --> 12:38.830 안녕하세요 12:38.860 --> 12:43.450 숙련된 인공지능 엔지니어에게요 12:44.200 --> 12:45.520 괜찮은 것 같은데요 12:45.520 --> 12:50.590 텍스트에서 음성 생성 파이프라인을 사용하는 예가 되겠네요 12:50.800 --> 12:55.180 파이프라인 API의 Colab 워크스루가 끝났네요 12:55.180 --> 13:00.910 물론 이 Colab을 공유할 테니 여러분이 액세스할 수 있고 직접 시도해 13:00.910 --> 13:06.460 보시길 권장합니다 여러 입력값을 실험하고 H깅페이스 허브에서 찾을 13:06.460 --> 13:09.880 수 있는 여러 모델도 실험해 보세요 13:10.180 --> 13:10.990 맛있게 드세요