Нью-Йорк, 16 июня. Администрация социальной сети Facebook тестирует новое программное обеспечение для противодействия распространению в сети пропаганды экстремизма и терроризма. Эти технологии опираются на элементы искусственного интеллекта и позволяют реже задействовать людей при принятии решения об удалении или блокировании запрещенного контента. Об этом сообщает ТАСС со ссылкой на объявление американской компании Facebook.
«Контекст имеет первостепенное значение в тех случаях, когда мы имеем дело с визуальным изображением, касающимся терроризма», — отметила начальник департамента глобальной политики управления компании Моника Бикерт. «Для нас технология является важной составной частью выявления и предупреждения о появлении такого контента. При этом именно люди обладают бесценной возможностью правильно понимать контекст», — добавила она.
В компании информировали, что уже в течение нескольких месяцев ее специалисты испытывают на практике новое ПО, предназначенное для поиска и предотвращения дальнейшего распространения контента экстремистского характера, например, убийство заложников. Еще один набор алгоритмов позволяет выявлять и даже автоматически препятствовать пользователям из числа идеологов терроризма открывать новые аккаунты в соцсети вместо блокированных ранее. Другой инструмент опирается на технологию искусственного интеллекта, «обученного» распознавать особенности и нюансы речи, а также письменного стиля изложения вербовщиков.
Как пояснили в компании, эти наработки более эффективны в автоматическом распознавании контента экстремистского толка. Соответственно, сокращается количество случаев, когда требуется вмешательство модератора Facebook, чтобы принять окончательное решение об удалении учетной записи или фрагмента информации. «Искусственный интеллект теперь способен чаще делать самостоятельный выбор», — заметил куратор отдела противодействия терроризму в компании Брайан Фишмэн.
Источник: ТАСС