Dicionário de LLMs - um guia completo
Автор: Aulas de Computação
Загружено: 2025-02-19
Просмотров: 163
Bem-vindo ao Dicionário de LLMs - Um Guia Completo! 🚀 Neste vídeo, vamos explorar os principais termos e conceitos relacionados aos Grandes Modelos de Linguagem (LLMs), como GPT-4, LLaMA, DeepSeek e muitos outros. Se você já se perguntou o que são tokens, transformers, fine-tuning, embeddings, ou mecanismos de atenção, este glossário é para você!
Aqui, você encontrará explicações simples e práticas sobre os termos mais importantes da inteligência artificial moderna, divididos por domínios como treinamento de modelos, técnicas de representação, geração de texto, avaliação de modelos e muito mais. Além disso, vamos pronunciar todos os termos em inglês e, quando existir, citar a tradução em português.
Este vídeo é perfeito para iniciantes que querem entender os fundamentos da IA, ou para profissionais que desejam revisar conceitos e se aprofundar em técnicas avançadas. Prepare-se para um conteúdo completo e cheio de insights!
🔔 Não se esqueça de se inscrever no canal e ativar o sininho para receber notificações de novos vídeos!
📌 Principais tópicos abordados:
O que são LLMs e como funcionam?
Termos fundamentais: tokens, transformers, fine-tuning, embeddings.
Técnicas de treinamento e ajuste de modelos.
Geração de texto e decodificação.
Métricas de avaliação e ética em IA.
📚 Links úteis:
Link para o artigo Attention is all you need - https://arxiv.org/abs/1706.03762
Termos abordados no vídeo:
Adversarial Attacks
AGI (Artificial General Intelligence)
API Inference
API Rate Limits
Attention Mechanism
AutoML
Backpropagation
Beam Search
Bias Mitigation
BLEU Score
BPE (Byte-Pair Encoding)
Catastrophic Forgetting
Chain-of-Thought Prompting
Cosine Similarity
Differential Privacy
Embedding Similarity
Emergent Abilities
Encoder-Decoder
Ethical Guidelines
Explainability
Fairness
Federated Learning
Few-shot Learning
F1 Score
Generative vs. Discriminative Models
Gradient Descent
Hardware Acceleration (TPU/GPU)
Human Evaluation
Hugging Face Transformers
In-context Learning
Knowledge Cutoff
Knowledge Graphs
LangChain
Latency vs. Throughput
LoRA (Low-Rank Adaptation)
Longformer
Loss Function
Masked Language Modeling
METEOR
Mixture of Experts
Model Cards
Model Distillation
Model Robustness
Model Serving
Multimodal Models
Neural Architecture Search (NAS)
ONNX (Open Neural Network Exchange)
Open Source vs. Proprietary Models
Overfitting
Parameter-Efficient Fine-Tuning (PEFT)
Perplexity
Pre-training
Quantization
Red Teaming
Retrieval-Augmented Generation (RAG)
RLHF (Reinforcement Learning from Human Feedback)
ROUGE Score
Scaling Laws
Self-Supervised Learning
Sparse Attention
Tokenization Libraries (ex: Hugging Face Tokenizers)
Top-k Sampling
Top-p (Nucleus) Sampling
Transfer Learning
Transformer-XL
Vector Databases
Word2Vec
Zero-Knowledge Proofs
Zero-shot Learning
📢 Compartilhe este vídeo com quem está interessado em inteligência artificial e grandes modelos de linguagem!
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: