Система распознавания нежелательного контента социальной сети Facebook не смогла оперативно заблокировать трансляцию теракта в мечетях города Крайстчерч в Новой Зеландии.
Об этом сообщает агентство AP.
«Появление видеотрансляции не вызвало срабатывания автоматической системы распознавания (нежелательного контента)», — цитирует агентство вице-президента Facebook Гая Розена.
По информации менеджера, системы искусственного интеллекта обучаются на очень больших объемах различного контента. Но, поскольку видео реальных событий со стрельбой редко попадают в социальной сети, Facebook не смог автоматически определить содержание трансляции и сразу заблокировать ее.
Искусственный интеллект не отличил кадры насилия от трансляции видеоигры.
Из-за того, что запись атаки на мечети была заблокирована с большим опозданием, она очень быстро распространилось в интернете. По данным Facebook, за сутки после трагедии было удалено более 1,5 млн размещенных в соцсети видеозаписей с кадрами теракта в Крайстчерче.
При этом администрация социальной сети оперативно заблокировала в Facebook и Instagram аккаунты человека, который устроил террористический акт.
Напомним, в ходе вооруженных нападений в двух мечетях погибли 50 человек, десятки получили ранения. По обвинению в совершении преступления задержан 28-летний австралиец, который считает себя борцом за превосходство белой расы.