По данным издания «Научная Россия», специалисты из Санкт-Петербургского федерального исследовательского центра РАН создали систему на базе искусственного интеллекта, способную находить вредоносных ботов в социальных сетях.
Разработанный учеными программный механизм может анализировать информацию о ботах и на основе полученных данных принимать решение о его «безопасности». Таким образом созданная система поможет автоматизировать выявление и предотвращение информационных атак, а также других видов деятельности недобросовестных ботов (например, накрутку лайков и написание положительных или негативных комментариев).
Одной из ключевых особенностей ИИ является возможность работать с любым языком – это заметно расширяет географию применения продукта. Для распознавания вредоносных ботов используются входные данные о них. По словам одного из сотрудников СПб ФИЦ РАН, такие данные не привязаны ни к языку, ни к структуре социальных сетей, ни к каким-либо другим внешним критериям. Обучение машины происходит на специально созданных в соцсетях группах, в которых между собой общаются только боты разных форматов.
Основной принцип работы системы заключается в распознавании «аномалий», то есть нетипичных для человека поведенческих особенностей в учетной записи. Вероятность корректного срабатывания ИИ варьируется в пределах от 60 до 90%. Все зависит от того, насколько хорошо по умолчанию сделан бот. Даже если создать крайне правдоподобный профиль, то со временем он себя «выдаст», и такая разработка будет способна это заметить, считают исследователи.
Комментарии