למשתמשי יוטיוב אין לרוב הצדקה לבוא אליה בטענות על התכנים - הם לא משלמים עליהם כסף, ופלטפורמת הסרטונים של גוגל מושפעת יותר מאינטרסים של מפרסמים מאשר של גולשים. ובכל זאת, בשנה האחרונה התכנים ביוטיוב סופגים לא מעט ביקורת על איכותם ועל השפעתם החברתית.
אלגוריתם ההמלצות של יוטיוב הוא שאחראי להציג מצד שמאל של המסך את הסרטונים המומלצים לצפיית המשך, שאף מתנגנים באופן אוטומטי בתום צפייה בסרטון. האלגוריתם עלה מספר פעמים לכותרות בהקשרים שליליים, לדוגמה כאשר המליץ לילדים על תוכן מטריד ואלים רק משום שהופיעו בו דמויות מצוירות מוכרות כמו אלזה וספיידרמן - לא רק באתר הראשי, אלא אף באפליקציה הייעודית יוטיוב קידס. לצד תקלות אלה, שיוטיוב מנסה לפתור באמצעות שכלול מנגנון הסינון שלה, הטענה העיקרית כלפי האתר היא שהוא מקדם במודע תיאוריות קונספירציה.
בפברואר התפרסמה ב"גרדיאן" כתבה שבה נטען כי האלגוריתם של יוטיוב, שלפי מקורות בחברה מהווה את מנוע הצמיחה החשוב ביותר שלה, מעוצב כך שיפתה את המשתמשים לבלות זמן רב בפלטפורמה, זאת כדי שיוצגו להם יותר מודעות באופן שימקסם את רווחיה. מהתחקיר עולה כי הדרך שבה יוטיוב עושה זאת היא הצגה של תכנים שהופכים יותר ויותר מוקצנים ככל שהגולש שוהה יותר בפלטפורמה. בתחקיר נבחן מנגנון ההמלצות באמצעות תוכנה שבנה המתכנת גיולם צ'סלוט, עובד לשעבר של יוטיוב, שעסק בפיתוח האלגוריתמים ופוטר ב-2013. לדבריו, הסיבה לפיטוריו הייתה שדרש שינוי באלגוריתם, מאחר שהוא "לא מתחשב במה שאמיתי, מאוזן או בריא לדמוקרטיה".
התוכנה האוטומטית של צ'סלוט מדמה התנהגות של משתמש ביוטיוב ואוספת דאטה על הסרטונים המומלצים. התהליך שחוזר על עצמו אלפי פעמים מתחיל בכל פעם מסרטון שנבחר באמצעות חיפוש טקסטואלי, ללא היסטוריית צפייה. מכאן הסרטון הבא נבחר מרשימת הסרטונים המומלצים, וכך גם בכל צעד נוסף בתהליך. צ'סלוט מצא כי יוטיוב מדגיש באופן סיסטמתי סרטונים מפלגים, סנסציוניים וקונספירטיביים. למשל, כשהחיפוש הראשוני היה "מיהי מישל אובמה?", רוב הסרטונים שהומלצו בהמשך טענו כי היא גבר.
תחקיר "הגרדיאן" אישר את ממצאיו ומצא כי בתקופה שלפני בחירות 2016 האלגוריתם נטה להמליץ על תיאוריות קונספירציה. לפי התחקיר, יוצרים חובבים שרגילים למאות צפיות היו המומים כשסרטונים שלהם נגד הילארי קלינטון החלו לקבל מיליוני צפיות. הכתבה אף מצאה כי האלגוריתם קידם תכנים שהיטיבו עם דונלד טראמפ יותר מתכנים שהיטיבו עם קלינטון. עוד עלתה השערה שהאלגוריתם נוצל לרעה כדי להשפיע על הבחירות, משום שרבים מהסרטונים שזכו למיליוני צפיות נמחקו בהמשך על-ידי היוצרים עצמם.
במאמר אקדמי שפרסמו מהנדסי החברה באותה שנה תואר האלגוריתם כ"אחת ממערכות ההמלצה התעשייתיות המתוחכמות ובעלות קנה-המידה הרחב ביותר שקיימות". נכתב בו כי זמן הצפייה בסרטונים נמצא עבור החברה בעדיפות גבוהה יותר ממספר הצפיות שסרטון צובר (כך המערכת נמנעת מלקדם קליקבייטים), וכי כאשר משתמש מסיים לצפות בסרטון במלואו - הדבר מהווה איתות לכך שאהב אותו. עוד נכתב באותו מאמר כי האלגוריתם לוקח בחשבון גורמים כמו היסטוריית הצפייה של משתמש וחיפושי עבר, נתונים כמו מגדר וגיל, ואפילו מחשב את הסיכוי שמשתמש יבחר לצפות בסרטון לפי התמונה שמקדמת אותו. עוד נכתב כי המערכת תעדיף תוכן חדש, אך לא על חשבון רלוונטיות, ושכדי לאמן את המערכת נאסף דאטה מוגבל מכל משתמש כדי למנוע מצב שבו גולשים פעילים במיוחד שולטים בתכנים המומלצים.
הסוציולוגית זיינפ טופקי ביקרה את יוטיוב על כך ואמרה ל"גרדיאן" כי יש בעיה מוסרית בהגשת תוכן שקרי לאנשים רק כדי לגרום להם לבלות יותר זמן באתר. טופקי תיארה את אלגוריתם ההמלצות של יוטיוב כ"מנוע דיסאינפורמציה", ובטור דעה ב"ניו-יורק טיימס" ציינה כי בניסוי אישי שערכה גילתה את נטיית האלגוריתם להציג תכנים הולכים ומקצינים, גם בנושאים שאינם פוליטיים במובהק. כשהיא צפתה בסרטונים על צמחונות, לדוגמה, הומלצו לה סרטונים על טבעונות, ותכנים על ג'וגינג הובילו להמלצות על סרטונים העוסקים בריצת מרתון.
אין כמובן בעיה בסרטונים על טבעונות או על ריצות מרתון, אך העיקרון מדאיג. "נראה שאתה אף פעם לא מספיק הארד קור בשביל האלגוריתם", כתבה טופקי. היא הוסיפה כי "ייתכן שיוטיוב הוא אחד מכלי הרדיקליזציה העוצמתיים של המאה ה-21", וביקרה את הפלטפורמה על כך שהיא מנצלת תשוקה אנושית טבעית "להיכנס לעומק של משהו שמעניין אותנו, ולחשוף אמיתות נסתרות".
יוטיוב הכחישה את המסקנות: "מערכת ההמלצות שלנו משקפות את העניין של הצופים", אמרו בחברה והוסיפו כי מערכת ההמלצות השתנתה מאוד מאז שצ'סלוט עבד בחברה. לפי יוטיוב, נעשו שינויים כדי לשפר את התוכן החדשותי המומלץ, כך שיהיה ממקורות מהימנים, ובנוסף, החברה סומכת על הקהילה שתדווח על תוכן שקרי, פוגעני או לא ראוי.