Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

Personalised Explanations with Multimodal and Explainable AI Tech talk with Claudio Giovannoni

Автор: Pi School

Загружено: 2025-02-24

Просмотров: 74

Описание:

As artificial intelligence becomes part of our everyday lives, the need for transparent and explainable systems is more critical than ever. Multimodal learning - combining images, text and signals - promises to transform healthcare, finance and mobility industries. But there's a catch: these complex models often operate like black boxes, making it difficult for non-experts to understand and trust their results.
Claudio's cutting-edge research addresses this challenge by creating personalised explanations that adapt to each user's expertise, preferences and attitudes. His multimodal framework uses the same diverse data that trains AI models to deliver clear, tailored insights.

In this Tech Talk, Claudio:
Shares insights from his professional and academic journey
Discusses his latest research on multimodal explainability
Explores the societal implications of explainable AI
And highlights key challenges and future directions for user-centred AI systems.

Don't miss this deep dive into the future of trustworthy AI!
🔔 Subscribe and turn on notifications to stay updated!

Personalised Explanations with Multimodal and Explainable AI Tech talk with Claudio Giovannoni

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

array(10) { [0]=> object(stdClass)#4598 (5) { ["video_id"]=> int(9999999) ["related_video_id"]=> string(11) "IHZwWFHWa-w" ["related_video_title"]=> string(131) "Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение" ["posted_time"]=> string(19) "7 лет назад" ["channelName"]=> string(11) "3Blue1Brown" } [1]=> object(stdClass)#4571 (5) { ["video_id"]=> int(9999999) ["related_video_id"]=> string(11) "Yv13-UPZNGE" ["related_video_title"]=> string(74) "Do We Really Want Explainable AI? - Edward Ashford Lee (EECS, UC Berkeley)" ["posted_time"]=> string(21) "2 года назад" ["channelName"]=> string(13) "SAIConference" } [2]=> object(stdClass)#4596 (5) { ["video_id"]=> int(9999999) ["related_video_id"]=> string(11) "aircAruvnKk" ["related_video_title"]=> string(101) "Но что такое нейронная сеть? | Глава 1. Глубокое обучение" ["posted_time"]=> string(19) "7 лет назад" ["channelName"]=> string(11) "3Blue1Brown" } [3]=> object(stdClass)#4603 (5) { ["video_id"]=> int(9999999) ["related_video_id"]=> string(11) "wjZofJX0v4M" ["related_video_title"]=> string(148) "LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры" ["posted_time"]=> string(19) "1 год назад" ["channelName"]=> string(11) "3Blue1Brown" } [4]=> object(stdClass)#4582 (5) { ["video_id"]=> int(9999999) ["related_video_id"]=> string(11) "IqO7Jv-qHXk" ["related_video_title"]=> string(91) "Unraveling the Immunological Code Classic and Explainable AI Methods in Vaccine Development" ["posted_time"]=> string(19) "1 год назад" ["channelName"]=> string(9) "Pi School" } [5]=> object(stdClass)#4600 (5) { ["video_id"]=> int(9999999) ["related_video_id"]=> string(11) "fownOApoL-A" ["related_video_title"]=> string(31) "Intro to multimodal RAG systems" ["posted_time"]=> string(25) "3 месяца назад" ["channelName"]=> string(17) "Google Cloud Tech" } [6]=> object(stdClass)#4595 (5) { ["video_id"]=> int(9999999) ["related_video_id"]=> string(11) "blWdjRUPP6E" ["related_video_title"]=> string(72) "Разведчик о том, как использовать людей" ["posted_time"]=> string(25) "2 недели назад" ["channelName"]=> string(18) "Коллектив" } [7]=> object(stdClass)#4605 (5) { ["video_id"]=> int(9999999) ["related_video_id"]=> string(11) "ZANbujPTvOY" ["related_video_title"]=> string(53) "GPQA: A Graduate-Level Google-Proof Q&A Benchmark" ["posted_time"]=> string(27) "8 месяцев назад" ["channelName"]=> string(31) "Conference on Language Modeling" } [8]=> object(stdClass)#4581 (5) { ["video_id"]=> int(9999999) ["related_video_id"]=> string(11) "jFHPEQi55Ko" ["related_video_title"]=> string(23) "What is Explainable AI?" ["posted_time"]=> string(21) "3 года назад" ["channelName"]=> string(14) "IBM Technology" } [9]=> object(stdClass)#4599 (5) { ["video_id"]=> int(9999999) ["related_video_id"]=> string(11) "QTC78DSN69c" ["related_video_title"]=> string(78) "Resilient Safety Analysis and Qualification - ELISA Project Workshop, May 2025" ["posted_time"]=> string(22) "11 дней назад" ["channelName"]=> string(13) "ELISA Project" } }
Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Do We Really Want Explainable AI? - Edward Ashford Lee (EECS, UC Berkeley)

Do We Really Want Explainable AI? - Edward Ashford Lee (EECS, UC Berkeley)

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Unraveling the Immunological Code Classic and Explainable AI Methods in Vaccine Development

Unraveling the Immunological Code Classic and Explainable AI Methods in Vaccine Development

Intro to multimodal RAG systems

Intro to multimodal RAG systems

Разведчик о том, как использовать людей

Разведчик о том, как использовать людей

GPQA: A Graduate-Level Google-Proof Q&A Benchmark

GPQA: A Graduate-Level Google-Proof Q&A Benchmark

What is Explainable AI?

What is Explainable AI?

Resilient Safety Analysis and Qualification - ELISA Project Workshop, May 2025

Resilient Safety Analysis and Qualification - ELISA Project Workshop, May 2025

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]