Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

[Paper Review] Democratizing Large Language Models : From 175B to 7B

Автор: 서울대학교 산업공학과 DSBA 연구실

Загружено: 2023-05-03

Просмотров: 3827

Описание:

발표자 : 통합과정 김재희

1. Topic
    LLM을 연구에 활용하기 위한 다양한 시도와 최근 공개 모델들
2. Overview
요약 : 이번 세미나를 통해 다룰 주제는 연구실 자원과 예산으로 활용 가능한 LLM을 훈련하기 위한 최근 연구 흐름입니다. LLM을 자유롭게 이용하기 위해서는 1) 대량의 데이터셋과 많은 파라미터를 가지는 모델을 통한 Language Modeling 훈련과 2) Annotator를 이용한 많은 양의 Instruction 데이터를 통한 Instruct Tuning이 필요합니다. 연속된 두 훈련 과정은 1) 연구실 단위의 GPU에서 추론도 불가능할 정도로 큰 모델과 2) 훈련을 위한 데이터셋 준비 및 GPU 환경으로 인한 수십억 이상의 예산을 당연한 전제로 삼게 되었습니다. 하지만 최근 발표된 Alpaca는 일반 연구실 자원(80GB GPU 4장 등)에서 활용 가능한 Instruct-Tuned 된 Large Language Model로서 최근 연구와 개발 양 방향에서 큰 관심을 받고 있습니다. 7B이라는 LLM치고 작은 모델 크기임에도 GPT-3와 비슷한 성능을 보이는 해당 모델은 단일 프로젝트로 진행되지 않고, Meta-AI의 LLAMA 모델을 기반으로 Self-Instruct라는 논문의 방법론을 적극 활용하여 학습된 모델입니다. 이번 세미나는 Alpaca를 비롯한 최근의 연구 흐름이 어떻게 연구실 자원으로 활용할 수 있는 LLM을 훈련시킬 데이터를 확보하고, 실제로 훈련했는지 살펴보도록 하겠습니다.
3. 발표 구성
1. Large Language Model for Research : 기존 LLM 모델의 연구자 관점의 한계점
2. Chinchilla : LLM Pretrain 시 학습 Step 수와 모델 파라미터 수 간의 관계
3. GPT-3
4. Instruct-GPT : 단순 Language Modeling을 넘어 인간의 요청에 효과적으로 대응하기 위한 학습 방법론
5. Llama : 연구를 위한 LLM
6. Self Instruct : Instruction-Tuning을 위한 경제적 데이터 확보 방안
7. Alpaca and its Friends : 최근 Llama 이후의 다양한 연구 및 개발 방향
4. 관련 연구
Chinchilla[Training Compute-Optimal Large Language Models] : https://arxiv.org/abs/2203.15556
GPT-3[Language Models are Few-Shot Learners] : https://arxiv.org/abs/2005.14165
Instruct-GPT[Training language models to follow instructions with human feedback] : https://arxiv.org/abs/2203.02155
Llama[LLaMA: Open and Efficient Foundation Language Model] : https://arxiv.org/abs/2302.13971
Self Instruct[Self-Instruct: Aligning Language Model with Self Generated Instructions] : https://arxiv.org/abs/2212.10560
Alpaca[Stanford Alpaca: An Instruction-following LLaMA Model] : https://github.com/tatsu-lab/stanford...

[Paper Review] Democratizing Large Language Models  : From 175B to 7B

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

[Paper Review] Focus Your Distribution

[Paper Review] Focus Your Distribution

[Paper Review] ADTR : Anomaly Detection Transformer with Feature Reconstruction

[Paper Review] ADTR : Anomaly Detection Transformer with Feature Reconstruction

Появляется новый тип искусственного интеллекта, и он лучше, чем LLMS?

Появляется новый тип искусственного интеллекта, и он лучше, чем LLMS?

[DSBA] Lab Study 2025 - AI-based Control Systems

[DSBA] Lab Study 2025 - AI-based Control Systems

Physics Informed Neural Networks (PINNs) || Ordinary Differential Equations || Step-by-Step Tutorial

Physics Informed Neural Networks (PINNs) || Ordinary Differential Equations || Step-by-Step Tutorial

[Korea University] Unstructured Data Analysis (Text Analytics)

[Korea University] Unstructured Data Analysis (Text Analytics)

[Paper Review] Post-pre-training for Modality Alignment in Vision-Language Foundation Models

[Paper Review] Post-pre-training for Modality Alignment in Vision-Language Foundation Models

슈퍼사이클 VS 버블 붕괴…2026년 반도체주 운명

슈퍼사이클 VS 버블 붕괴…2026년 반도체주 운명

[Paper Review] Training LLMs to be Better Text Embedders through Bidirectional Reconstruction

[Paper Review] Training LLMs to be Better Text Embedders through Bidirectional Reconstruction

Sting - Shape of My Heart || Sylwester z Dwójką 2025

Sting - Shape of My Heart || Sylwester z Dwójką 2025

2025 год стал годом, когда искусственный интеллект переступил черту.

2025 год стал годом, когда искусственный интеллект переступил черту.

[Paper Review] PrimeNet: Pre-training for Irregular Multivariate Time Series

[Paper Review] PrimeNet: Pre-training for Irregular Multivariate Time Series

Komentarz Tygodnia: Polska, Europa i świat w cieniu migracji, cenzury i politycznych gier

Komentarz Tygodnia: Polska, Europa i świat w cieniu migracji, cenzury i politycznych gier

시장은 내년에도 강할 것, 단 '이때'까지 간다 (박세익) | 인포맥스라이브 251230

시장은 내년에도 강할 것, 단 '이때'까지 간다 (박세익) | 인포맥스라이브 251230

[신년특집🔥]

[신년특집🔥] "아이도 우리 수준은 돼야죠"...인구 반토막 시대, 30•40 고학력 부모들이 치를 대가 (ft.이철희 서울대 경제학과) / 교양이를 부탁해

[Paper Review] RareCLIP: Rarity-aware Online Zero-shot Industrial Anomaly Detection

[Paper Review] RareCLIP: Rarity-aware Online Zero-shot Industrial Anomaly Detection

금은 최고의 해 끝났다 VS 다시 간다? 금·은·구리 전망과 투자 방법 | 빈난새의 빈틈없이월가

금은 최고의 해 끝났다 VS 다시 간다? 금·은·구리 전망과 투자 방법 | 빈난새의 빈틈없이월가

[Paper Review] MOIRAI-MOE: EMPOWERING TIME SERIES FOUNDATION MODELSWITH SPARSE MIXTURE OF EXPERTS

[Paper Review] MOIRAI-MOE: EMPOWERING TIME SERIES FOUNDATION MODELSWITH SPARSE MIXTURE OF EXPERTS

[Paper Review] Patch-wise Structural Loss for Time Series Forecasting

[Paper Review] Patch-wise Structural Loss for Time Series Forecasting

Which Agent Causes Task Failures and When? On Automated Failure Attribution of LLM Multi-Agent Syste

Which Agent Causes Task Failures and When? On Automated Failure Attribution of LLM Multi-Agent Syste

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]