Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

How Racial Biases can Corrupt Facial Recognition Technology

Автор: WKAR

Загружено: 2021-05-05

Просмотров: 1959

Описание:

A useful tool for consumers and law enforcement alike, facial recognition technology can help police officers identify—and ultimately charge—criminals caught on camera. But its critics argue that it's discriminatory: Research shows that facial recognition software often misidentifies people of color at a much higher rate than white individuals. Now, Detroit, Michigan is facing lawsuits for the false arrests of two Black men misidentified by facial recognition technology. Why is it more difficult for this technology to recognize people of color? And do legal, privacy, and human rights concerns outweigh the benefits of its use?

How Racial Biases can Corrupt Facial Recognition Technology

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

WHY Face Recognition acts racist

WHY Face Recognition acts racist

Virtual Meetings Increase Fatigue And Cosmetic Procedure Consultations

Virtual Meetings Increase Fatigue And Cosmetic Procedure Consultations

The Crane Wives Live at WKAR | Michigan’s Folk-Rock Standouts (Full Performance)

The Crane Wives Live at WKAR | Michigan’s Folk-Rock Standouts (Full Performance)

Опасности телефона которые могут посадить вас в тюрьму. Что нужно знать про телефон каждому

Опасности телефона которые могут посадить вас в тюрьму. Что нужно знать про телефон каждому

Так ли опасен мессенджер Max и какое есть решение?

Так ли опасен мессенджер Max и какое есть решение?

What Does the AI Boom Really Mean for Humanity? | The Future With Hannah Fry

What Does the AI Boom Really Mean for Humanity? | The Future With Hannah Fry

Luke Winslow-King – Live on Backstage Pass (Rare Full Performance)

Luke Winslow-King – Live on Backstage Pass (Rare Full Performance)

Are Risk Assessment Algorithms Fair, or Racist?

Are Risk Assessment Algorithms Fair, or Racist?

The Coded Gaze: Bias in Artificial Intelligence | Equality Summit

The Coded Gaze: Bias in Artificial Intelligence | Equality Summit

How to make computers less biased

How to make computers less biased

Lil’ Ed & The Blues Imperials Deliver a Raw Chicago Blues Masterclass

Lil’ Ed & The Blues Imperials Deliver a Raw Chicago Blues Masterclass

How Police Track Protesters With High-Tech Surveillance Tools

How Police Track Protesters With High-Tech Surveillance Tools

How I'm fighting bias in algorithms | Joy Buolamwini

How I'm fighting bias in algorithms | Joy Buolamwini

Buying Food with Facial Recognition in China

Buying Food with Facial Recognition in China

ШЕНДЕРОВИЧ: Удар по дворцу Путина — был ли? Обратная связь от войны. Трамп морозит. Ответ Каспарову

ШЕНДЕРОВИЧ: Удар по дворцу Путина — был ли? Обратная связь от войны. Трамп морозит. Ответ Каспарову

Housing: How AI is perpetuating racial bias in home lending

Housing: How AI is perpetuating racial bias in home lending

Шульман: точка невозврата пройдена? | Интервью про 2025-й год: Пугачева, Кадыров, Наки, Дзюба, ПАСЕ

Шульман: точка невозврата пройдена? | Интервью про 2025-й год: Пугачева, Кадыров, Наки, Дзюба, ПАСЕ

В Интернет только по паспорту: Internet ID и реестр всех IMEI для ФСБ

В Интернет только по паспорту: Internet ID и реестр всех IMEI для ФСБ

AI surveillance, facial recognition and dark technology | Agnes Callamard | The Big Picture S2EP6

AI surveillance, facial recognition and dark technology | Agnes Callamard | The Big Picture S2EP6

Racial bias in AI: Man wrongly identified by facial recognition technology

Racial bias in AI: Man wrongly identified by facial recognition technology

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]