usd 60.37
eur 61.36
Все новости
Все новости

В России разработали технологию, выявляющую преступников по их соцсетям. Эксперт сомневается в ее эффективности

Специалист по искусственному интеллекту объясняет, что здесь не так

Создается единая база, к которой подключается другая программа, цель которой — анализировать уже сам контент, который в своих аккаунтах размещают пользователи

Создается единая база, к которой подключается другая программа, цель которой — анализировать уже сам контент, который в своих аккаунтах размещают пользователи

Поделиться

В России разработана система, способная выявлять в общественных местах потенциальных преступников по их активности в соцсетях. Об этом заявил в интервью ТАСС генеральный директор АО «Радиотехнический институт имени академика А. Л. Минца» Юрий Аношко.

По его словам, система позволяет создать профайл человека и оценить степень его угрозы для общества по совокупности характерных признаков, в том числе исходя из его активности на платформах TikTok, YouTube, «ВКонтакте» и Facebook*. Определенное количество комплексов под названием «Досмотр», как утверждает Аношко, уже заказаны российскими силовыми структурами.

Об устройстве такой системы и о том, в чем ее слабости, мы поговорили с Алексеем Цессарским — генеральным директором компании IVA Cognitive, экспертом в сфере искусственного интеллекта.

— Алгоритм работы системы «Досмотр» схож с привычной нам функцией поиска по лицам, давно доступной в ряде соцсетей, — объяснил MSK1.RU Алексей. — Например, когда Facebook* предлагает вам отметить друзей на фото, их лица программа распознает благодаря фотографиям, которые они разместили на своих страницах. Так же и здесь: программа проиндексировала некоторое количество аккаунтов в соцсетях и извлекла из фото биометрию (запечатлела лицо, которое она теперь сможет узнать где угодно, в том числе на видео с камер наблюдения. — Прим. ред.).

По результатам индексации создается единая база, к которой подключается другая программа, цель которой — анализировать уже сам контент, который в своих аккаунтах размещают пользователи. Она просматривает подписки, репосты, фотографии, поисковые запросы, анализирует их и делает вывод, опасен ли тот или иной человек для общества.

— Думаю, у них есть какая-то статистическая база, — рассказал Цессарский. — Например, с информацией, что люди опасные интересуются конкретными темами: оружием, наркотиками, черным рынком, возможно, криптовалютой. Если человек в своем личном аккаунте часто обращается к этим темам, нейросеть может счесть его опасным.

Нейросеть будет распознавать лица, выделять отдельных людей, сверяться с базой и сигнализировать охране о подозрительных личностях

Нейросеть будет распознавать лица, выделять отдельных людей, сверяться с базой и сигнализировать охране о подозрительных личностях

Поделиться

После интеграции такой программы в системы охраны общественных мест, пристальному досмотру будут подвергаться те, на кого она укажет. Например, среди посетителей вокзала нейросеть, распознающая лица, будет выделять отдельных людей, сверяться с базой и сигнализировать охране о подозрительных личностях.

— Сам поиск может быть практически мгновенным: если бюджет позволяет, мощное оборудование будет выполнять такую операцию за доли секунды. Что вызывает беспокойство, так это достоверность полученных данных: при таком количестве анализируемой информации неизбежно будут погрешности, вызывающие ложные срабатывания нейросети, — сообщил MSK1.RU эксперт.

— Например, оружием может интересоваться не потенциальный убийца, а заядлый охотник или коллекционер раритетных винтовок. А если подавляющее большинство указанных программой людей будут обычными мирными гражданами, сами сотрудники охранных служб к нововведению будут относиться несерьезно. К тому же, может получиться так, что пока охрана пристально досматривает гражданского по ложному сигналу системы, мимо проходит реальный преступник.

На вопрос, есть ли вероятность, что технология имеет потенциал усовершенствоваться в будущем и стать точнее, Алексей Цессарский не смог ответить с уверенностью:

— Конечно, правильная настройка системы может снизить количество ложных срабатываний. Например, если программа, работающая на вокзале в Москве, будет автоматически анализировать только профили москвичей, информационного шума станет меньше. Но вместе с тем появится вероятность, что преступника из другого города, приехавшего в Москву, нейросеть не распознает. В этом главная проблема — сложно найти баланс между совокупной себестоимостью такой амбициозной программы и ее практической эффективностью.

* Деятельность соцсети запрещена на территории РФ.

Самую оперативную информацию о жизни столицы теперь можно узнать из телеграм-канала MSK1.RU и нашей группы во «ВКонтакте».

  • ЛАЙК0
  • СМЕХ7
  • УДИВЛЕНИЕ0
  • ГНЕВ8
  • ПЕЧАЛЬ1
Увидели опечатку? Выделите фрагмент и нажмите Ctrl+Enter