WEBVTT

00:00.350 --> 00:08.060
구글 Colab입니다 GPU 박스를 이용한 클라우드에서의 첫 협업 세션이죠

00:08.090 --> 00:15.110
T4 박스에 연결했습니다 하위 사양 중 하나죠

00:15.350 --> 00:16.880
여기 리소스가 보이시죠

00:16.880 --> 00:24.170
이걸 실행하면 GPU 대부분을 채울 수 있죠 런타임으로 가서 재시작

00:24.200 --> 00:31.520
세션을 했어요 그래서 GPU 메모리가 아무것도 안 된 거죠

00:31.520 --> 00:36.230
어쨌든 방해되지 않게 이 스크린을 제거할게요

00:36.680 --> 00:37.550
됐어요

00:37.940 --> 00:41.210
콜랍 좀 보세요

00:41.210 --> 00:47.930
파이프라인의 세계로 시작하겠습니다 얼굴을 끌어안는 트랜스포머 라이브러리에

00:47.960 --> 00:51.710
파이프라인이라는 두 API 레벨이 있어요

00:51.710 --> 00:55.670
오늘의 토큰라이저와 모델에 관해선 나중에 얘기하죠

00:55.670 --> 01:02.920
파이프라인에 관한 거죠 상위 레벨 API 말이에요 일반적인 작업에 대한 추론을 실행하게

01:02.920 --> 01:11.440
합니다 코드 두어 줄로요 프로덕션에서 마찰 없이 오픈 소스 모델을 쉽게 사용하게 해주죠

01:11.950 --> 01:16.360
우리가 사용하는 방법은 아주 간단해요

01:16.690 --> 01:23.920
파이프라인을 호출하고 문자열을 전달합니다 원하는 작업을 전달하죠

01:23.920 --> 01:28.960
여러분이 넘길 수 있는 다양한 것들이 있어요 다양한 문자열이죠 잠시 후에 그게 뭔지 보실

01:28.960 --> 01:29.830
수 있어요

01:29.830 --> 01:35.200
파이프라인 객체를 얻어서 입력으로 호출할 수 있고 get 결과도 얻을 수 있죠

01:35.200 --> 01:36.760
그게 다예요

01:36.760 --> 01:37.930
간단해요

01:38.020 --> 01:44.170
트랜스포머 라이브러리 설치부터 시작할게요 모든 것의 핵심이죠

01:44.170 --> 01:48.640
데이터셋은 얼굴을 포옹하는 데이터셋 라이브러리예요

01:48.640 --> 01:53.890
디퓨저는 트랜스포머의 동반 라이브러리 같은 거예요 이미지를 만들어내는 디퓨전

01:53.890 --> 01:55.210
모델 말이에요

01:55.240 --> 02:02.110
트랜스포머라고 하면 트랜스포머와 형제 라이브러리 디퓨저를 말하는 거예요

02:02.110 --> 02:05.250
이미지를 만들 때 쓰는 거죠

02:05.250 --> 02:07.920
파이프를 설치하고 있어요

02:08.040 --> 02:13.830
a 셀 앞에 저런 느낌표가 있으면 터미널 명령으로 실행하고 싶다는

02:13.830 --> 02:15.330
뜻이에요

02:15.330 --> 02:16.530
실행될 거예요

02:16.530 --> 02:23.970
이 마이너스 Q를 모르신다면 침묵 모드로 설정합니다. 모든 패키지를 설치하는 출력을 얻지 않기 위해서입니다. 하지만 지금은

02:24.000 --> 02:28.020
설치가 빠르게 이루어지고 있습니다. 왜냐하면 아까 이 노트북을 실행해

02:28.020 --> 02:29.790
봤기 때문이죠.

02:29.790 --> 02:33.210
패키지가 설치되는 동안 30이 걸릴 수도 있어요

02:33.510 --> 02:36.030
그런 다음 수입을 할 거예요

02:37.590 --> 02:43.020
Get을 완료하고 나면 파이프라인으로 넘어가죠

02:43.050 --> 02:44.490
Get it, Get it 준비하세요

02:44.490 --> 02:50.220
먼저 감정 분석은 긍정적이거나 부정적인 비트예요

02:50.220 --> 02:56.670
이 말부터 할게요 LM 마스터로 가는 길에 들어서 정말 신나요

02:56.790 --> 02:59.940
좋은 건지 나쁜 건지 모르겠네요

03:00.120 --> 03:03.500
몇 가지 주의할 점이 있어요

03:03.710 --> 03:10.250
먼저, 어떤 모델도 제공되지 않았고 기본값이 이 모델에 있다고 경고하네요

03:10.250 --> 03:16.700
무슨 뜻이냐면 모델 =이라고 입력하면 안는 얼굴 허브에서 어떤 모델을 이 파이프라인의

03:16.730 --> 03:19.790
일부로 사용할 건지 정할 수 있다는 거죠

03:19.790 --> 03:25.160
하나를 제공하지 않으면 해당 작업에 대한 기본값을 선택합니다 오늘 우리 목적에 아주

03:25.160 --> 03:25.880
유용하죠

03:26.090 --> 03:32.600
또 다른 건 환경에서 GPU가 사용 가능하지만 GPU를 사용하라고 하진 않았다는

03:32.600 --> 03:37.430
겁니다 비트는 우리가 좀 이상하다고 생각하죠

03:37.460 --> 03:46.100
장치가 CUDOW와 같다고 하면 그렇게 할 수 있어요 그럼 그 명령은 이 파이프라인을 사용하고

03:46.100 --> 03:51.290
싶다고 하죠 우리가 가진 GPU 덕을 보고 싶다고요

03:52.130 --> 03:57.050
이제 실행했어요 GPU 상에서 실행됐죠

03:57.050 --> 03:59.330
결과도 살펴보는 게 좋겠어요

03:59.330 --> 04:05.050
긍정적인 성명서로 간주되고 있습니다 점수인 자신감 수준도

04:05.080 --> 04:06.460
매우 높고요

04:06.460 --> 04:08.080
좋은 것 같아요

04:08.080 --> 04:11.560
그 문장을 잘 해석한 것 같아요

04:11.560 --> 04:13.960
안 된다고만 해두죠

04:13.990 --> 04:18.010
LLM 마스터가 되는 게 썩 기쁘진 않아요

04:18.040 --> 04:18.970
그럴 리가요

04:18.970 --> 04:22.120
그런 생각은 안 하셨으면 좋겠는데 확인해 보죠

04:22.120 --> 04:27.940
우리가 그렇게 말하면 라벨이 부정적이라는 걸 확실히 인식하고 부정적

04:27.940 --> 04:31.090
선언이라는 걸 확신할 수 있죠

04:31.090 --> 04:35.440
잘 작동하네요 열정적으로 마무리하죠

04:35.470 --> 04:37.630
그렇게 생각하길 바라죠

04:38.080 --> 04:40.720
독립체 인식이 다음 작업이죠

04:40.720 --> 04:44.890
난 파이프라인이나 통과할 테니 당신도 직접 해 봐요

04:44.920 --> 04:50.530
물론 엔터티 인지션은 여러분이 텍스트를 제공하고 모델에게 어떤 종류의

04:50.530 --> 04:53.080
것이 참조되는지 확인하는 거죠

04:53.110 --> 04:56.500
이건 제가 찍은 표준 사진이에요

04:56.530 --> 05:00.310
버락 오바마는 미국의 44대 대통령이었죠

05:00.670 --> 05:13.350
분석을 요청하면 여기에 반응을 해요 두 가지 다른 이름으로

05:13.380 --> 05:15.840
응답하죠

05:15.960 --> 05:22.590
여기 이 텍스트를 보시면 첫 번째 명명된 엔터티의 형식은 사람 이름 당 퍼예요

05:22.950 --> 05:27.030
자신감이 넘치고 이름은 버락 오바마예요

05:27.120 --> 05:33.510
두 번째는 장소 이름인데 미국이라는 뜻이에요

05:33.510 --> 05:38.850
입력에서 어디에 있는지 알려주는 거죠

05:39.300 --> 05:45.570
데이터 과학에서는 아주 흔한 사용 사례입니다 원하는 대로 빨리 할 수

05:45.570 --> 05:46.860
있으면 좋죠

05:47.160 --> 05:53.010
컨텍스트를 이용한 질문 답변 파이프라인을 만들 수 있어요

05:53.010 --> 05:59.250
다시 한 번 이 장치의 CUDU를 이용해 GPU에서 실행하고 누가 미국의 44대 대통령이었는지

05:59.250 --> 06:02.640
컨텍스트를 제공한다고 하죠

06:02.640 --> 06:09.770
검색할 게 있고 결과를 프린트하도록 요청하는데 결과에 대한 놀라운

06:09.770 --> 06:11.480
답변이 없어요

06:11.480 --> 06:12.170
아마도요

06:12.170 --> 06:14.750
이 모델의 힘을 과시하려는 게 아니에요

06:14.750 --> 06:17.930
파이프라인 API의 단순함을 보여주려는 거예요

06:17.960 --> 06:23.420
더 정교한 컨텍스트와 더 나은 질문을 가지고 놀 수 있습니다 다양한 모델을 통과시켜

06:23.660 --> 06:29.540
보는 것도 추천합니다 페이스 허브에서 이용 가능한 다양한 모델을 탐구해 보세요

06:30.110 --> 06:32.780
텍스트 요약도 간단해요

06:32.810 --> 06:35.360
파이프라인도 빼놓을 수 없죠

06:35.360 --> 06:39.770
유형은 요약이고 많은 텍스트를 쓸 수 있어요. Tool karaoke Tool karaoke.

06:39.800 --> 06:44.840
포옹하는 트랜스포머 라이브러리 얘기를 하고 있네요

06:45.290 --> 06:52.760
요약본을 요청하고 짧은 시간 동안 최대 길이로 말하면 get 절차가 짧고

06:52.760 --> 06:56.180
명료한 문장으로 돌아오죠

06:56.300 --> 07:00.530
이미 넣은 걸 토막 내서 얹은 거예요

07:00.530 --> 07:03.590
잘 만들진 못했지만 단순한 모형이었어요

07:03.590 --> 07:07.650
더 나은 모델에서 더 나은 요약본을 탐구할 수 있어요

07:07.920 --> 07:11.400
시간 되시면 통역해 드릴게요

07:11.430 --> 07:13.740
영어로 번역해 주세요

07:13.740 --> 07:14.610
프랑스어로요

07:15.060 --> 07:21.450
데이터 과학자들은 어징 페이스 파이프라인 API의 힘과 단순함에 정말 놀랐죠

07:21.930 --> 07:28.260
프랑스어를 구사하는 모든 분께 어떻게 작동하는지 보죠

07:28.290 --> 07:34.350
고등학교 때 배운 프랑스어가 뛰어나다는 말은 안 하겠지만 허징 페이스 파이프라인의

07:34.350 --> 07:39.720
강력하고 단순한 API에 놀랐다고는 말해 줄 수 있죠

07:39.720 --> 07:45.330
제 프랑스어 실력으로는 꽤 확실한 번역인 것 같네요

07:45.330 --> 07:52.230
아주 쉬운 분류, 혹은 제로 샷 분류라 불리는 건 그냥 예만 주고 일부

07:52.230 --> 07:57.600
라벨을 붙이라고 할 때죠 이전 예는 주지 않고요

07:57.810 --> 08:03.720
그래서 얼굴 껴안기 트랜스포머 라이브러리는 굉장하다고 표현하고 기술, 스포츠,

08:03.750 --> 08:06.150
정치 등으로 분류하라고 했어요

08:06.150 --> 08:08.660
어떻게 작동하는지 보죠

08:09.050 --> 08:15.200
기술 라벨이라고 적혀 있어요

08:15.230 --> 08:20.810
95%의 점수를 받았지만 스포츠와 정치학에서는 아주 낮은 점수를 받았죠

08:20.810 --> 08:21.500
정치요

08:21.500 --> 08:23.090
가장 낮은 수치죠

08:23.180 --> 08:29.360
특히나 기술과 직접적으로 관련된 단어가 없었으니까요

08:29.360 --> 08:31.100
나쁘지 않네요

08:31.430 --> 08:37.340
마지막으로 이 시리즈의 정말 간단한 건 텍스트 생성이에요

08:37.370 --> 08:43.160
H깅페이스 파이프라인을 사용할 때 기억해야 할 게 하나 있다면 그건∙∙∙ 어디 보죠

08:43.190 --> 08:46.910
바닐라 모델을 사용하고 있지만 어떻게 처리하는지 보죠

08:48.830 --> 08:53.240
노틸러스호에서 실행되는 모든 응용 프로그램은 컴파일된 것처럼 안는 얼굴 패키지를

08:53.240 --> 08:54.350
목표로 하죠

08:54.350 --> 08:55.340
비트가 좀 뜬금없죠

08:55.340 --> 08:59.720
전에 했던 검사에서는 결과가 더 좋았어요

08:59.900 --> 09:02.030
얼마나 잘 회복하는지가 중요하죠

09:02.060 --> 09:04.400
모든 프로젝트가 그렇듯 위험 부담을 감수해야 해요

09:04.430 --> 09:05.630
언제 끝까지 밀어붙여야 하는지 기억하세요

09:05.660 --> 09:09.520
어떻게 시작됐는지에 따라 횡설수설하는 거죠

09:09.520 --> 09:13.210
좀 더 재미있는 시작을 해보고 어떻게 되는지 보세요

09:13.210 --> 09:17.260
좀 더 크고 육중한 모델도 시도해 볼 수 있어요 get it get it get it get it get it get it

09:17.290 --> 09:20.980
물론 텍스트 생성에 있어서는 그게 더 정확하죠

09:21.700 --> 09:22.420
네

09:22.420 --> 09:30.970
이제 여러분은 다중 양식의 전문가들이니 이미지 생성을 보여드리죠

09:30.970 --> 09:35.800
지금까지는 트랜스포머 라이브러리를 사용했고 디퓨전 스타일

09:35.800 --> 09:41.590
모델로 영상을 전송하고 있어요 이미지를 생성하는 아키텍처죠

09:41.860 --> 09:50.080
잘 알려진 안정적 확산 모델을 사용하고 있는데 몇 가지 변수를 더 통과시켜야 해요

09:50.110 --> 09:51.010
곧 보시게 될 거예요

09:51.040 --> 09:54.010
우리가 사용하는 데이터 타입을 알려줘야 해요

09:54.400 --> 10:00.640
그 작업을 마치고 GPU 위에 얹으면 텍스트를 줄 수 있어요

10:00.640 --> 10:08.130
살바도르 달리의 초현실적인 스타일로 인공지능을 연구하는 데이터 과학자들이죠

10:08.400 --> 10:11.010
그 이미지를 생성해보죠

10:11.010 --> 10:13.050
이 비트는 시간이 좀 더 걸릴 거예요

10:13.050 --> 10:15.510
좀 더 비트 있는 작업이죠

10:15.750 --> 10:21.390
당신은 더 오래 걸릴 수도 있어요 저는 이미 한 번 실행해봤으니까요

10:21.390 --> 10:26.880
H깅페이스에서 모델을 다운로드해 로컬 디렉터리에 저장했어요

10:26.880 --> 10:30.960
실행하는 데 1분 정도 걸릴 수도 있어요

10:31.200 --> 10:32.970
하지만 시작할게요

10:32.970 --> 10:43.500
이 방에는 데이터 과학자들이 가득합니다 달리의 초현실적인 스타일로 인공지능을 배우고

10:43.500 --> 10:44.490
있죠

10:44.490 --> 10:45.960
정말 좋아요

10:45.990 --> 10:47.760
이 사람들과 닮았어요?

10:47.970 --> 10:52.320
최악의 악몽에서만 그러는 게 아니라 저기도 그랬으면 좋겠네요

10:52.320 --> 10:55.110
초현실적인 달리예요

10:55.140 --> 10:57.840
무섭고 이상한 세상이죠

10:57.930 --> 11:01.350
데이터 과학자치고 정말 마음에 들어요

11:01.380 --> 11:07.530
이걸 플럭스 모델로 대체할 수 있어요 아까 강의에서

11:07.560 --> 11:11.450
코드를 보여드렸죠

11:11.630 --> 11:13.160
네, 그렇게 하세요

11:13.160 --> 11:18.170
시간이 더 오래 걸리고 T4보다 더 우람한 박스로 달려야 해요

11:18.200 --> 11:24.710
A100 카메라로 하면 몇 분이면 숨이 멎을 정도로 멋진 이미지가 완성되죠

11:24.740 --> 11:28.070
지난 강의에서 보여 드린 것처럼요

11:28.280 --> 11:34.520
하지만 저렴한 초고속 모델치고는 괜찮은 것 같아요

11:35.120 --> 11:39.680
마지막으로 오디오 세대예요

11:39.680 --> 11:45.440
텍스트-언어 파이프라인을 사용할 겁니다 어떤 모델을 원하는지 알려주는 거죠

11:45.470 --> 11:49.040
마이크로소프트의 스피치 5 TTS를 원하죠

11:49.040 --> 11:55.820
모델에 제공해야 할 게 좀 더 있어요 비트가 사용해야 할 음성의 종류

11:55.820 --> 11:56.900
같은 거요

11:56.900 --> 12:01.340
얼굴을 안는 것으로 데이터 세트를 로드하는 라인이 몇 개 있어요

12:01.490 --> 12:04.460
Get it으로 모양을 잡아야죠

12:04.460 --> 12:10.270
다 됐으면 파이프라인을 호출하고 인공 지능 엔지니어에게

12:10.270 --> 12:17.140
인사한 다음 이 음성 메시지를 전달할게요

12:17.410 --> 12:24.460
이건 웨이브 파일에 쓸 코드예요

12:24.820 --> 12:34.360
이 콜랍 공책에 그 내용을 담을 거예요

12:34.360 --> 12:36.220
꽤 빨랐어요

12:36.220 --> 12:38.050
소리가 어떤지 들어보죠

12:38.050 --> 12:38.830
안녕하세요

12:38.860 --> 12:43.450
숙련된 인공지능 엔지니어에게요

12:44.200 --> 12:45.520
괜찮은 것 같은데요

12:45.520 --> 12:50.590
텍스트에서 음성 생성 파이프라인을 사용하는 예가 되겠네요

12:50.800 --> 12:55.180
파이프라인 API의 Colab 워크스루가 끝났네요

12:55.180 --> 13:00.910
물론 이 Colab을 공유할 테니 여러분이 액세스할 수 있고 직접 시도해

13:00.910 --> 13:06.460
보시길 권장합니다 여러 입력값을 실험하고 H깅페이스 허브에서 찾을

13:06.460 --> 13:09.880
수 있는 여러 모델도 실험해 보세요

13:10.180 --> 13:10.990
맛있게 드세요