YouTube заявил, что он будет вносить изменения в алгоритм рекомендаций, чтобы исключить видеоролики по теории заговора. Компания заявляет, что обновление уменьшит предложение о «пограничном контенте и контенте, который может вводить пользователей в заблуждение вредными способами».
YouTube уточнил, какие видео соответствуют этому описанию, предоставив три примера: «видео, пропагандирующие фальшивое чудо-лекарство от серьезной болезни; утверждающее, что Земля плоская; или явно ложные заявления об исторических событиях, таких как 9/11».
Компания пояснила, что этот контент не обязательно нарушает его принципы сообщества. Это означает, что, хотя контент все еще может существовать на YouTube, алгоритм сайта не будет рекомендовать эти видео своим пользователям.
YouTube говорит, что для того, чтобы справляться с подобного рода проблемным контентом, он использует «комбинацию машинного обучения и реальных людей». Специалисты по оценке и эксперты обучат систему рекомендаций для оценки этих видео. Сначала изменения будут видны только на небольшом количестве видео в США.
YouTube сообщает, что в целом это изменение затронет менее 1% видео. Но, с огромным видеоархивом платформы и сотни часов нового контента, загружаемого за минуту, это все еще составляет много видео.
Идея о том, что хорошо там, где нас нет, является отражением нашего желания большего —…
Вопрос о том, имеют ли наши сны смысл, интригует человечество на протяжении тысячелетий, охватывая культуры,…
От древних философских учений до современной критики — эта идея побуждает нас задавать вопросы, исследовать…
Вековые дебаты между свободой воли и детерминизмом на протяжении веков занимали умы философов, учёных и…
Целенаправленная практика позволяет вам глубже погрузиться в свои уникальные экстрасенсорные способности и установить глубокую связь…
Вы когда-нибудь задумывались о силе своего собственного разума? О ее способности воплощать едва уловимый шепот…