Как алгоритмы Netflix видят нас насквозь

© Игорь Ставцев/Коллаж/Ridus.ru

© Игорь Ставцев/Коллаж/Ridus.ru

Этой осенью на Netflix вышел документальный фильм «Социальная дилемма». В основу его сюжета положен этический спор об алгоритмах социальных медиа и их вреде обществу. В картине бывшие сотрудники техногигантов рассказывают, как соцсети негативно влияют на психическое здоровье, как вызывают зависимости, как способствуют распространению фейков и теорий заговора.

Главным товаром соцсетей называют человеческое внимание, которым манипулируют с целью продать больше рекламы. Правда, становится не так грустно, когда понимаешь, что сам Netflix использует алгоритмы, которые увеличивают количество просматриваемого контента на 40%.


За 20 лет технической революции задачи систем рекомендаций не изменились. Все так же: удержание внимания и побуждение к целевому действию. Для этого используются прогностические методы, в основе которых лежит машинное обучение (machine learning).

Самые популярные — фильтрация по содержимому (content-based filtering) и совместная фильтрация (collaborative filtering).

Система, архитектура которой основана на фильтрации по содержимому, выдает рекомендации на основе сходства признаков предмета и предпочтений людей. Например, пользователь онлайн-кинотеатра ставит высокие оценки научной фантастике и низкие — драматическим фильмам. Система извлекает информацию и в дальнейшем рекомендует человеку научную фантастику и схожие жанры.

Система Netflix — это комбинация 27 рекомендательных алгоритмов. Допустим, система принимает на вход данные о режиссере, жанре, годе, актерах. И данные о человеке: как он реагировал на этого режиссера, как реагировал на комедии, драмы, фантастику, исторические мелодрамы. Если рассматривать совсем простой вариант: человек, который любит фильмы про средние века, скорее всего, любит исторические фильмы в целом. Но на практике используются более сложные алгоритмы, основанные на анализе данных, — рассказал ridus.ru специалист в области Data Science AR-стартапа Banuba, консультант по учебной программе онлайн-университета Skillbox Вячеслав Архипов.

Искусственный интеллект определяет, что этот человек относится к некоторой группе зрителей X, потому что в его реакциях присутствуют паттерны ABC, отличающие группу Х. Также прогнозируется его реакция на контент исходя из реакций других представителей этой группы. То есть, анализируя данные, компьютер понимает структуру интересов аудитории.

© Кадр из сериала

© Кадр из сериала «Черное зеркало».

Можно бесконечно спорить об этичности рекомендательных алгоритмов, находить тысячи плюсов и минусов. Но вопрос лежит в плоскости ответственности человека и его осознанного подхода к жизни. Необязательно брать в кредит все продукты из списка «вам может пригодиться» или смотреть топовые ролики YouTube ночь напролет. Технологии изменили человечество, но не стали им управлять.

Такие алгоритмы можно использовать не только в развлекательной сфере. Рекомендательные системы оказались полезными в медицине. К примеру, они могут находить новые соединения активных веществ для лекарств, а также новые свойства у клинически одобренных лекарств.

Нам важно ваше мнение!

+0

Комментарии (0)