Facebook разрабатывает ИИ, который будет отмечать оскорбительные стримы

Facebook работает над автоматическим определением оскорбительного материала в потоковых видео, отталкиваясь от растущих усилий в использовании искусственного интеллекта для контент-контроля, сказал Хоакин Кандела, директор компании по прикладному машинному изучению.

Компания была втянута во многие споры, связанные с модерацией содержимого в этом году, от столкновения с международными протестами после удаления культовой фотографии периода войны во Вьетнаме из-за наготы до распространения фейковых новостей.

Facebook исторически полагался главным образом на пользователей, чтобы те сообщали об оскорбительных постах, которые затем проверялись сотрудниками. Решения об особенно запутанных проблемах, которые могли бы потребовать изменений политики, принимались высшим руководством компании.

Кандела говорит репортерам, что соцсеть все больше и больше использовала ИИ, чтобы найти неприемлемый материал. Он рассказал, что это - алгоритм, который обнаруживает наготу, насилие или любую из вещей, которые не являются приемлемыми согласно внутренней политике.

Компания уже работала над использованием автоматизации, чтобы отмечать экстремистский видеоконтент, о чем агентство Reuters сообщило в июне.

Теперь автоматизированную систему также тестируют в Facebook Live, видеосервисе для пользователей, который позволяет транслировать в прямом эфире видео.

Использование искусственного интеллекта, чтобы сигнализировать об определенном лив-видео, все еще на стадии исследования и имеет две проблемы. По словам Канделы, компьютерный алгоритм должен быть быстрым, но он полагает, что здесь можно продвинуться. Другая трудность - необходимо расположить по приоритетам вещи правильным способом так, чтобы человек посмотрел на него, эксперт, который понимает внутреннюю политику, и снял его.

Facebook заявил, что также использует автоматизацию, чтобы обработать десятки миллионов отчетов, которые сайт получает каждую неделю, чтобы находить двойные отчеты и перенаправлять их рецензентам с соответствующим экспертным знанием темы.

Генеральный директор Марк Цукерберг в ноябре заявил, что Facebook будет использовать автоматизацию как одно из средств по определению поддельных новостей. Перед американскими выборами 8 ноября пользователи Facebook читали неправдивые новости, где утверждалось, что Папа Франциск поддержал Дональда Трампа и что федеральный агент, который изучал кандидата от демократической партии Хиллари Клинтон, был найден мертвым.

Однако, чтобы определить, например, хейтерский комментарий или запугивание, необходим контекст, заявила компания.

ЛеКун, директор по исследованию ИИ, отказался комментировать использование этого средства, чтобы обнаружить поддельные новости, но отметил улучшения в общей ленте новостей, когда доходит до компромиссов между фильтрацией и цензурой, свободой выражений и благопристойностью, а также правдивостью.

“Это вопросы, которые идут определенным путем вне того, можем ли мы развивать ИИ. Компромиссы, в которые я не особо вникал, чтобы давать определения".

Лента форума
Блог ( 34 )
tw fb vk