保護を目的とした自動システム
Google は 1 日あたり何十億もの検索を処理しています。この莫大な量の処理を可能にしているのが、Google の自動システムです。
このシステムは、特定のトピックに関する有益なコンテンツに優先順位を付けるように機能します。また、Google のコンテンツ ポリシーに違反するコンテンツを表示しないように設計されています。
たとえばセーフサーチがオフになっていても、Google のランキング アルゴリズムにより、わいせつな表現や露骨な表現を含む検索結果が制限され、こうした情報を求めていない検索に対し、不適切な性的な表現を含む検索結果の表示を減らします。
ネット上で子どもを保護するためのポリシー
Google は、コンテンツの安全性に対する懸念と、検索エンジンによって情報アクセスの機会を提供する必要性とのバランスを取るため、Google 検索におけるコンテンツ ポリシーを慎重に策定してきました。
たとえば、18 歳未満であれば誰でも、自分の画像を検索結果から削除するようリクエストできるポリシーを策定しました。これには、ネットいじめのリスクを減らすなどの効果が見込まれます。
また世界中の組織と連携して、児童への性的虐待など、コンテンツの安全性に関する重要な問題を解決するために、さまざまなリソースを提供しています。
質の高い情報を最適なタイミングで取得
健康などの注意が必要なトピックについて情報を検索した場合や、緊急事態での検索では、信頼できる情報源からの情報パネルや危機回避情報が検索結果に表示される場合があります。
この情報は、広く認知された信頼性のある情報源との連携によって、またウェブ上の危機対応サービスを通じて得られるものです。