Бывший учёный Google DeepMind, «Настоящая угроза ИИ — потеря контроля», Кристофер Саммерфилд
Автор: The Nick Standlea Show
Загружено: 2025-11-26
Просмотров: 125809
Доктор Кристофер Саммерфилд, нейробиолог Оксфордского университета и директор по исследованиям Британского института безопасности искусственного интеллекта, бывший старший научный сотрудник Google DeepMind, рассказывает о своей новой книге «Эти странные новые умы», в которой исследуется, как большие языковые модели научились говорить, чем они отличаются от человеческого мозга и что означает их развитие для контроля, самостоятельности и будущего работы.
Мы обсуждаем:
Реальный риск ИИ — потеря контроля, а не вымирание
Как агенты ИИ действуют в невидимых для человека цифровых циклах
Почему агентивность может быть важнее вознаграждения
Хрупкость, петли обратной связи и аналогии с внезапными сбоями
Чему ИИ учит нас о человеческом интеллекте
Дополнение против замены в медицине, юриспруденции и не только
Почему доверие — это социальная форма агентивности, и почему люди должны оставаться в курсе событий
🎧 Слушайте другие выпуски: @TheNickStandleaShow
Примечания гостя:
Профессор когнитивной нейронауки
🌐 Лаборатория обработки информации человеком (Оксфорд)
🏛 Британский институт безопасности ИИ
Экспериментальная психология
Оксфордский университет
Лаборатория обработки информации человеком (HIP) на кафедре экспериментальной психологии Оксфордского университета под руководством профессора Кристофера Саммерфилда: https://humaninformationprocessing.com/
📘 Эти странные новые Minds (Penguin Random House): https://www.amazon.com/These-Strange-...
Медиа Кристофера Саммерфилда:
https://csummerfield.github.io/person...
https://flightlessprofessors.org
Twitter: @summerfieldlab
bluesky: @summerfieldlab.bsky.social
🔗 Поддержите этот подкаст, ознакомившись с нашими спонсорами:
👉 Создайте своего собственного ИИ-агента с помощью Zapier (открывает конструктор с предустановленными подсказками): https://bit.ly/4hH5JaE
Test Prep Gurus
Сайт: https://www.prepgurus.com
Instagram: @TestPrepGurus
Присоединяйтесь к шоу Ника Стэндли:
YouTube: @TheNickStandleaShow
Сайт подкаста: https://nickshow.podbean.com/
Подкасты Apple: https://podcasts.apple.com/us/podcast...
Spotify: https://open.spotify.com/show/0YqBBne...
RSS-канал: https://feed.podbean.com/nickshow/fee...
Соцсети Ника:
Instagram: @nickstandlea
X (Twitter): @nickstandlea
TikTok: @nickstandleashow
Facebook: @nickstandleapodcast
Задавайте вопросы,
не принимайте статус-кво,
и будьте любознательны.
🕒 Тайм-коды / Главы
00:00 Начало — контроль, агентность и ИИ
00:31 Вступление гостя: Оксфорд → DeepMind → Британский институт безопасности ИИ
01:02 Реальная история «захвата» ИИ: потеря контроля
03:02 Убьёт ли нас ИИ? Объяснение проблемы контроля
06:10 Агентность как базовое психологическое благо
10:46 Фаустовская сделка: эффективность против личной агентности
13:12 Что такое агенты ИИ и почему они хрупкие?
20:12 Три группы риска: неправильное использование, ошибки, системные эффекты
24:58 Аналогии хрупкости и внезапных сбоев в системах ИИ
30:37 Действительно ли мы понимаем, как думают модели? (Трансформеры 101)
34:16 Чему ИИ учит нас о человеческом интеллекте
36:46 Мозг против нейронных сетей: сходства и различия
43:57 Телесное воплощение и почему робототехника всё ещё сложна
46:28 Дополнение против замены в работе «белых воротничков»
50:14 Доверие как социальный фактор — почему люди должны оставаться в курсе событий
52:49 Где найти Кристофера и заключительные мысли
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: