YouTube заявил, что он будет вносить изменения в алгоритм рекомендаций, чтобы исключить видеоролики по теории заговора. Компания заявляет, что обновление уменьшит предложение о «пограничном контенте и контенте, который может вводить пользователей в заблуждение вредными способами».
YouTube уточнил, какие видео соответствуют этому описанию, предоставив три примера: «видео, пропагандирующие фальшивое чудо-лекарство от серьезной болезни; утверждающее, что Земля плоская; или явно ложные заявления об исторических событиях, таких как 9/11».
Компания пояснила, что этот контент не обязательно нарушает его принципы сообщества. Это означает, что, хотя контент все еще может существовать на YouTube, алгоритм сайта не будет рекомендовать эти видео своим пользователям.
YouTube говорит, что для того, чтобы справляться с подобного рода проблемным контентом, он использует «комбинацию машинного обучения и реальных людей». Специалисты по оценке и эксперты обучат систему рекомендаций для оценки этих видео. Сначала изменения будут видны только на небольшом количестве видео в США.
YouTube сообщает, что в целом это изменение затронет менее 1% видео. Но, с огромным видеоархивом платформы и сотни часов нового контента, загружаемого за минуту, это все еще составляет много видео.
Вы когда-нибудь задумывались о силе своего собственного разума? О ее способности воплощать едва уловимый шепот…
Иногда мы чувствуем себя настолько пойманными в ловушку, что вообще теряем надежду. Никогда не поздно…
Наше восприятие времени может закрывать нам глаза на его истинную природу, говорят ученые.
Наши мысли и эмоции выходят за рамки того, что находятся исключительно в нашей голове. Они…
Искусство особенно хорошо развивает наше любопытство и может повысить творческий потенциал. Открытие новых знаний и…
В психологии много парадоксов: чем сильнее вы пытаетесь заснуть, тем меньше у вас шансов; чем…