Хранилище Azure для рабочих нагрузок ИИ с Аунг У
Автор: ITOpsTalk
Загружено: 2025-11-05
Просмотров: 62
Рик Клаус беседует с Аунг У, вице-президентом по хранилищу Azure, о Microsoft Azure как платформе ИИ. Вместе они исследуют, как хранилище Azure обеспечивает масштабируемость современных рабочих нагрузок ИИ.
От объектного, блочного и файлового хранилища до вспомогательных сервисов, таких как Azure Data Box и Storage Mover, Аунг подробно рассматривает архитектуру и эволюцию хранилищ в эпоху ИИ. Узнайте, как основополагающие модели, такие как OpenAI, и инструменты, такие как AI Foundry, используют масштабируемую инфраструктуру Azure для создания высокопроизводительных и надежных решений ИИ.
Главы:
00:00 – Вступление: Изучение Azure для ИИ
01:06 – Эволюция хранилищ: от петабайтов до эксабайтов
01:30 – Категории хранилищ: объектные, блочные, файловые
04:30 – Конвейер ИИ: сбор данных, обучение, вывод
06:00 – Пример использования OpenAI и хранилища BLOB-объектов
07:30 – Интеграция AI Foundry с хранилищем Azure
09:00 – Уроки OpenAI: масштабируемость и надежность
11:00 – Что дальше: Lift and Shift для рабочих нагрузок ИИ
Что вы узнаете:
• Как хранилище Azure поддерживает масштабные рабочие нагрузки ИИ
• Различия между объектным, блочным и файловым хранилищами
• Реальные примеры использования OpenAI и AI Foundry
• Ключевые архитектурные аспекты конвейеров ИИ
• Как Microsoft развивает хранилище, основываясь на отзывах клиентов
👥 Докладчики:
Рик Клаус – главный специалист по облачным технологиям, Microsoft
LinkedIn: / rickclaus
Аунг У — вице-президент по хранилищу данных Azure, Microsoft
LinkedIn: / aungoo-microsoft
🔔 Оставайтесь на связи
Не пропустите выпуск — нажмите «Подписаться» и позвоните в колокольчик!
🏷️ Теги и ключевые слова
#AzureStorage, #AIWorkloads, #BlobStorage, #MicrosoftDeveloper, #ITPro, #AzureAI, #AIInfrastructure, #OpenAI, #AIFoundry, #LiftAndShift, #GenerativeAI, #CloudMigration, #DataEngineering, #SoftwareDevelopment, #AzureCloud
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: