YouTube では、日々世界中の人々に依頼して、YouTube の検索と見つけやすさのシステムをトレーニングし、改善に役立てています。その際に使用されるガイドライン(英語)は一般公開されています。YouTube の検索およびレコメンデーション システムは、特定の政治的立場に基づいて動画やチャンネルをフィルタリングまたは順位を下げるようには設計されていません。
また、性別などのバイアスが意図せずにアルゴリズムに反映されてしまうことを防ぐため、YouTube の機械学習システムに対して監査を行っています。YouTube は、この取り組みを他の分野にも拡大できるよう努めています。システムに誤りがあった場合は、修正後に再トレーニングを行うことにより、システムの正確性を向上させます。
ポリシーの作成と更新に当たっては、クリエイター、対象分野の専門家、表現の自由に関する研究者、いろいろな政治的立場の政策機関など、さまざまな立場の方たちの意見に耳を傾けています。
ポリシーを策定すると、審査担当者チームが客観的なガイドラインに沿って一貫性を持って新しく作成したポリシーを適用できるように、十分な時間を費やして準備します。新しいポリシーを適用する前に、ステージング環境(ポリシーが実際には適用されていない環境)において、異なる審査担当者が非常に高い割合で一貫して同じ決定を行えることを確認します。これが一致しない場合は、トレーニングと社内ガイドラインを改定してより明確にし、同じ手順を繰り返します。YouTube では、主観性と個人の持つバイアスの影響をできる限り排除し、広範囲に運用しても高い精度と一貫性を持つことを目標としています。ポリシーを一般公開するのは、精度が許容できるレベルに達した場合のみです。