1 493

YouTube заявил, что он будет вносить изменения в алгоритм рекомендаций, чтобы исключить видеоролики по теории заговора. Компания заявляет, что обновление уменьшит предложение о «пограничном контенте и контенте, который может вводить пользователей в заблуждение вредными способами».

YouTube уточнил, какие видео соответствуют этому описанию, предоставив три примера: «видео, пропагандирующие фальшивое чудо-лекарство от серьезной болезни; утверждающее, что Земля плоская; или явно ложные заявления об исторических событиях, таких как 9/11».

Компания пояснила, что этот контент не обязательно нарушает его принципы сообщества. Это означает, что, хотя контент все еще может существовать на YouTube, алгоритм сайта не будет рекомендовать эти видео своим пользователям.

YouTube говорит, что для того, чтобы справляться с подобного рода проблемным контентом, он использует «комбинацию машинного обучения и реальных людей». Специалисты по оценке и эксперты обучат систему рекомендаций для оценки этих видео. Сначала изменения будут видны только на небольшом количестве видео в США.

YouTube сообщает, что в целом это изменение затронет менее 1% видео. Но, с огромным видеоархивом платформы и сотни часов нового контента, загружаемого за минуту, это все еще составляет много видео.