Эксперты: YouTube рекомендует юзерам нарушающие правила сервиса видеоролики

© pixabay.com

Популярнейший видеохостинг YouTube навязывает пользователям контент, нарушающий собственные правила онлайн-площадки. Как сообщает The Wall Street Journal, американские исследователи насчитали 71% нежелательного контента в рекомендациях сервиса.


Эксперимент длился десять месяцев, в нем приняли участие 37 тысяч волонтеров из 91 страны мира. Они выявили более трех тысяч роликов, содержащих фейки о политических процессах и пандемии COVID-19, ненавистнические высказывания или материалы сексуального характера. После жалоб на неприемлемый контент модераторы YouTube заблокировали всего две сотни таких видео, некоторые из которых уже успели набрать под 160 миллионов просмотров.

Проблему рекомендательных алгоритмов крупных интернет-сервисов обсудили представители российского экспертного сообщества. Член комиссии по правовому обеспечению цифровой экономики Московского отделения Ассоциации юристов России Александра Орехович убеждена, что проблема во многом связана с тем, что регулирование процессов алгоритмизации в большинстве стран попросту отсутствует.

Российские эксперты обсуждают предложения по установлению обязательств владельцев рекомендательных сервисов по доведению до сведения потребителей информации об алгоритмах, которые они используют при составлении рекомендаций. Конечно, такой подход тоже вызывает ряд вопросов: постоянное изменение алгоритмов, способы донесения до сведения и др. Однако, как показывает практика, такой подход заслуживает внимания. На мой взгляд, необходимо найти баланс таким образом, чтобы у пользователя была возможность выбора — позволяет ли он использовать определенные алгоритмы при подборе ему предлагаемого контента, а для этого нужно по крайней мере иметь представление, какие именно алгоритмы при этом используются и какая информация о нем для их создания обрабатывается.

В свою очередь, член комиссии по правовому обеспечению цифровой экономики Московского отделения Ассоциации юристов России, глава Российского центра компетенций и анализа стандартов ОЭСР РАНХиГС при Президенте РФ Антонина Левашенко отмечает, что проблема рекомендации пользователям нежелательного контента во многом появляется из-за того, что пользователь не знает, когда он взаимодействует с алгоритмом, не может знать принципов его работы, критериев, на основе которых алгоритм принимает решение показать тот или иной контент, и не может повлиять на работу алгоритма, например, отказавшись от обработки данных о своем поведении с целью выявления предпочтений и формирования рекомендаций.

Раз объемы контента не позволяют справляться с задачей своевременно выявить и предотвратить показ материалов, которые противоречат правилам сервиса, должна быть дана возможность пользователю влиять на работу алгоритма. ОЭСР в Рекомендации по искусственному интеллекту 2019 года устанавливает принципы регулирования работы алгоритмов, в том числе указывает, что следует предотвращать возникновение эффекта «черного ящика», при котором пользователю или оператору невозможно понять, на основе каких критериев алгоритм принимает решение, обеспечивать прозрачность и объяснимость работы алгоритмов, а также доводить до сведения пользователя, когда он взаимодействует с алгоритмом, и давать ему возможность (если это технически выполнимо) отказаться от такого взаимодействия.

«Регулирование работы таких алгоритмов нужно, тем более что в России в 2019 году принята Национальная стратегия развития искусственного интеллекта, и работа по регулированию таких алгоритмов должна активно вестись в данный момент, — продолжает эксперт. — Вместе с тем не следует начинать с „жесткого“ регулирования: рекомендации, кодексы ответственного управления системами ИИ, добровольные стандарты могут и должны применяться до внедрения нормативного регулирования. Это позволит компаниям подготовиться к новым правилам и по возможности безболезненно обеспечить соответствие им. Например, центром „Россия-ОЭСР“ в 2020 году был составлен вопросник для проверки соответствия политик компании принципам этики искусственного интеллекта».

На необходимость регулирования алгоритмов, по которым осуществляется выдача той или иной информации, эксперты обращали внимание и ранее.

Директор Института проблем правового регулирования НИУ ВШЭ Анна Дупан полагает, что принципы работы рекомендательных сервисов должны быть максимально прозрачными.

«Это поможет исключить недобросовестную конкуренцию и защитить право каждого человека на свободный доступ к информации. Пользователи хотят знать, почему рекомендательный сервис выдает именно такую выдачу, а не иную. Еще им нужно предоставить возможность самостоятельно отключать рекомендательные алгоритмы, сохраняя при этом доступность ресурса, который использует технологии такого рода», — отмечала Дупан в интервью ridus.ru.

Нам важно ваше мнение!

+0

Комментарии (0)