José Ammendola - Décrypteur d'IA
Автор: Ville d'Antibes Juan-les-Pins
Загружено: 2025-11-22
Просмотров: 147
Dans cet épisode, Florence reçoit José Ammendola, le directeur de la Maison de l'Intelligence Artificielle.
L'entretien porte sur l'IA dans le quotidien, ses enjeux, et les efforts pour former le public à son usage responsable. José Ammendola explique que la Maison de l'IA vise à sensibiliser différents publics aux risques de l'IA. Il aborde également les différents types d'IA, la législation européenne, et l'importance de la souveraineté numérique face aux géants américains et asiatiques.
00:00:00 Début
00:00:40 Qui peut venir à la Maison de l'Intelligence artificielle ?
00:01:01 Qu'est-ce que l'on trouve à la MIA ?
00:01:32 Qu'est-ce que l'IA ?
00:02:32 Quel message faites-vous passer aux jeunes générations ?
00:03:27 Comment informez-vous les jeunes sur les fausses informations générées par l'IA ?
00:04:42 L'importance de rédiger le bon prompt ?
00:06:55 L'utilisation de l'IA peut être potentiellement dangereuse ?
00:08:30 Quels conseils donneriez-vous à un adolescent ?
00:08:59 Où en est le développement de l'IA (faible, forte, super intelligence) ?
00:10:47 Y a-t-il une législation sur la divulgation de l'utilisation de l'IA ?
00:12:08 Pensez-vous que la créativité humaine passera par l'IA dans le futur ?
00:12:39 Il y a une espèce de fantasme autour de cet outil ?
00:13:35 Pouvez-vous illustrer ce que représente la consommation d'énergie d'un chatbot ?
00:14:28 Pour certaines personnes, l'IA est devenue une sorte d'ami !
00:15:05 Quels seront les impacts de l'IA et de la robotique sur les métiers ?
00:17:36 Sur quelles applications de l'IA travaille-t-on à Sophia Antipolis ?
00:18:47 L'IA a un côté sombre et un côté plein d'espoir.
00:20:42 Qu'en est-il de la législation face à l'IA ?
00:21:59 Suis-je protégé lorsque je partage des données personnelles avec l'IA ?
00:23:14 Pouvez-vous détailler le prochain événement de la MIA ?
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: