| 検閲 |
|---|
インターネットフィルターは、インターネット ユーザーがアクセスできるコンテンツを制限または制御するインターネット検閲の一種で、特にWeb、電子メール、またはその他の手段でインターネット経由で配信されるコンテンツを制限する場合に利用されます。このような制限はさまざまなレベルで適用できます。政府が全国規模で適用しようとする場合 (インターネット検閲を参照)、またはインターネット サービス プロバイダーが顧客に対して、雇用主が従業員に対して、学校が生徒に対して、図書館が訪問者に対して、親が子供のコンピュータに対して、または個々のユーザーが自分のコンピュータに対して制限を適用できます。その目的は多くの場合、コンピュータの所有者またはその他の当局が好ましくないと考えるコンテンツへのアクセスを防ぐことです。ユーザーの同意なしに課される場合、コンテンツ制御はインターネット検閲の一形態として特徴付けることができます。一部のフィルター ソフトウェアには、子供がインターネットにアクセスしたり、ゲームやその他のコンピュータ アクティビティに費やすことができる時間を親が設定できるようにする時間制御機能が含まれています。
「コンテンツ制御」という用語は、CNN、[ 1 ]プレイボーイ誌、[ 2 ]サンフランシスコ・クロニクル、[ 3 ]ニューヨーク・タイムズなどで時折使用されています。[ 4 ]しかし、「コンテンツ・フィルタリング・ソフトウェア」、「ウェブ・コンテンツ・フィルタ」、「フィルタリング・プロキシ・サーバー」、「セキュア・ウェブ・ゲートウェイ」、「検閲ウェア」、「コンテンツ・セキュリティと制御」、「ウェブ・フィルタリング・ソフトウェア」、「コンテンツ検閲ソフトウェア」、「コンテンツ・ブロッキング・ソフトウェア」など、他の用語もよく使用されています。「ナニーウェア」は、製品マーケティングやメディアで使用されています。業界調査会社ガートナーは、この市場セグメントを説明するために「セキュア・ウェブ・ゲートウェイ」 (SWG)を使用しています。[ 5 ]
ウェブサイトを選択的にブロックする製品を製造する企業は、これらの製品を検閲ソフトウェアとは呼ばず、「インターネット フィルター」や「URL フィルター」といった用語を好んで使用します。保護者が子供のアクセスを監視・制限できるように特別に設計されたソフトウェアの場合は、「ペアレンタル コントロール ソフトウェア」も使用されます。ユーザーがアクセスしたすべてのサイトを記録し、コンテンツの種類に基づいて評価し、ユーザーが選択した「アカウンタビリティ パートナー」に報告する製品もあり、この場合は「アカウンタビリティ ソフトウェア」という用語が使用されます。インターネット フィルター、ペアレンタル コントロール ソフトウェア、および/またはアカウンタビリティ ソフトウェアが 1 つの製品に統合される場合もあります。
しかし、そのようなソフトウェアに批判的な人々は、「検閲ウェア」という用語を自由に使用しています。例えば、Censorware Projectが挙げられます。[ 6 ]このようなソフトウェアのメーカーを批判する社説では、「検閲ウェア」という用語が広く使用されており、その種類や用途は多岐にわたります。例えば、Xeni Jardinは2006年3月9日付のニューヨーク・タイムズ紙の社説で、中国でコンテンツを抑制するためにアメリカ製のフィルタリングソフトウェアが使用されていることについて論じた際にこの用語を使用しました。また、同月、ある高校生が自分の学区におけるそのようなソフトウェアの導入について論じる際にこの用語を使用しました。[ 7 ] [ 8 ]
一般的に、上述の社説欄以外では、従来の新聞は報道において「検閲ウェア」という用語をほとんど使用せず、「コンテンツフィルター」「コンテンツコントロール」「ウェブフィルタリング」といった、それほど物議を醸す可能性が低い用語を好んで使用します。ニューヨーク・タイムズとウォール・ストリート・ジャーナルもこの慣例に従っているようです。一方、CNETのようなウェブベースの新聞は、社説とジャーナリズムの両方の文脈でこの用語を使用しています。例えば、「Windows Liveに検閲ウェアが侵入か」といった記事です。[ 9 ]
フィルターは、パソコン上のソフトウェア、プロキシサーバー、DNSサーバー、インターネットアクセスを提供するファイアウォールなどのネットワークインフラストラクチャなど、様々な方法で実装できます。完全なセキュリティ対策を提供するソリューションは存在しないため、多くの企業は、ポリシーに沿った適切なコンテンツ制御を実現するために、複数のテクノロジーを組み合わせて導入しています。
インターネットは本質的にコンテンツをブロックする機能を備えていないため、18 歳以上対象のゲームや映画など、多くのコンテンツが成人向けとして認定されていることを考えると、子供には不適切であると考えられるコンテンツがインターネット上には数多く存在します。
ポルノ、あるいは物議を醸す宗教、政治、ニュース関連コンテンツを含むコンテンツをブロックするインターネットサービスプロバイダ(ISP)は、多くの場合、子供に自分の信念に反するコンテンツへのアクセスを許可したくない親御さんによって利用されています。しかし、コンテンツフィルタリングソフトウェアは、アドウェア、スパム、コンピューターウイルス、ワーム、トロイの木馬、スパイウェアなど、マルウェアやその他の悪意のある、侵入的な、または迷惑なコンテンツを含むコンテンツをブロックするためにも使用できます。
コンテンツ管理ソフトウェアの多くは、組織や保護者向けに販売されています。しかし、オンラインポルノ、ギャンブル、チャットルームなどへの依存症に苦しむ人々などによる自己検閲を支援する目的で販売されることもあります。また、不道徳、不適切、あるいは単に気を散らすコンテンツを閲覧することを避けるために、自己検閲ソフトウェアを利用する人もいます。多くのアカウンタビリティソフトウェア製品が自己検閲ソフトウェアまたはアカウンタビリティソフトウェアとして販売されています。これらは、宗教メディアや宗教集会で宣伝されることがよくあります。[ 17 ]
コンテンツフィルタリング技術には、アプリケーションゲートウェイとパケットインスペクションという2つの主要な形態があります。HTTPアクセスの場合、アプリケーションゲートウェイはWebプロキシまたは単にプロキシと呼ばれます。このようなWebプロキシは、任意の複雑なルールを使用して、最初のリクエストと返されたWebページの両方を検査し、決定が下されるまでページのどの部分もリクエスト元に返しません。さらに、返された結果の全体または一部を置き換えることもできます。パケットインスペクションフィルタは、最初はサーバーへの接続に干渉しませんが、接続が通過する際にそのデータを検査します。ある時点でフィルタは接続をフィルタリングする必要があると判断し、TCPリセットなどの偽装パケットを挿入して接続を切断します。これらの2つの技術は、フィルタリングが必要なコンテンツを持つIPアドレスへのHTTP接続が開始されるまでリンクを監視するパケットフィルタと組み合わせて使用できます。パケットフィルタは、フィルタリングが必要なコンテンツを持つIPアドレスへのHTTP接続が開始されると、接続をWebプロキシにリダイレクトします。Webプロキシは、フィルタリングされていないすべての接続を通過させることなく、Webサイトで詳細なフィルタリングを実行できます。この組み合わせは、システムコストを大幅に削減できるため、 非常に人気があります。
IPレベルのパケットフィルタリングには制約があり、特定のIPアドレスに関連付けられたすべてのウェブコンテンツにアクセスできなくなる可能性があります。その結果、同じIPアドレスまたはドメインを共有する正当なサイトが意図せずブロックされる可能性があります。例えば、大学のウェブサイトでは、1つのIPアドレスで複数のドメインを使用するのが一般的です。さらに、同じドメインまたはサーバーにリンクされたまま、特定のコンテンツに異なるIPアドレスを使用することで、IPレベルのパケットフィルタリングを回避することができます。[ 18 ]
ゲートウェイベースのコンテンツ制御ソフトウェアは、ユーザーがフィルタリングデバイスに物理的にアクセスできないため、デスクトップソフトウェアよりもバイパスが困難になる可能性があります。ただし、「フィルターのバイパス」セクションで紹介した手法の多くは、依然として有効です。
コンテンツラベルは、コンテンツ制御ソフトウェアの別の形態と考えることができます。1994年、インターネットコンテンツレーティング協会(ICRA)(現在はファミリーオンラインセーフティ協会の一部)は、オンラインコンテンツプロバイダー向けのコンテンツレーティングシステムを開発しました。ウェブマスターはオンラインアンケートを用いて、ウェブコンテンツの性質を記述します。記述内容はコンピュータで読み取り可能な形式で要約され、コンテンツフィルタリングソフトウェアによってそのサイトをブロックまたは許可するために使用される小さなファイルが生成されます。
ICRAラベルには様々な形式があります。[ 19 ]これらには、ワールドワイドウェブコンソーシアムのリソース記述フレームワーク(RDF)や、マイクロソフトのインターネットエクスプローラコンテンツアドバイザーで使用されているインターネットコンテンツ選択プラットフォーム(PICS)ラベルが含まれます。[ 20 ]
ICRAラベルは自己ラベル付けの一例です。同様に、2006年には、児童保護を推進するサイト協会(ASACP)が「成人向けコンテンツに限定」という自己ラベル付けイニシアチブを開始しました。ASACPのメンバーは、米国で提案されている様々な法案が、アダルト系企業にコンテンツラベルの付与を強制する結果をもたらすのではないかと懸念していました。[ 21 ] RTAラベルは、ICRAラベルとは異なり、ウェブマスターがアンケートに回答したり、登録したりする必要はありません。ICRAと同様に、RTAラベルは無料です。どちらのラベルも、様々なコンテンツ管理ソフトウェアで認識されます。
自主的コンテンツレーティング(VCR)システムは、 Solid Oak Software社が自社のフィルタリングソフトウェア「CYBERsitter」向けに考案したものです。PICSシステムは複雑すぎると批判されていましたが、VCRシステムはこれに代わるものです。このシステムでは、Webページ文書に埋め込まれたHTMLメタデータタグを用いて、文書に含まれるコンテンツの種類を指定します。指定されているレベルは「mature(成熟)」と「adult(成人向け)」の2つだけであるため、仕様は非常にシンプルです。
オーストラリアのインターネット安全諮問機関は、「子供、学生、家族の保護のためのインターネットの安全性、ペアレンタルコントロール、フィルターに関する実践的なアドバイス」に関する情報を提供しており、これには公共図書館も含まれています。[ 22 ]
オーストラリア政府が無料で提供しているソフトウェアであるNetAlertは、2007年8月にリリースされてから1週間も経たないうちに、16歳の学生トム・ウッドによってクラックされたとされている。ウッドは、インターネットコンテンツのフィルタリングに対する政府のアプローチの問題点を浮き彫りにするために、約30分で8400万ドルのフィルターを回避したとされている。[ 23 ]
オーストラリア政府は、ISPに「オーストラリアでホストされているか、オーストラリアから提供されている年齢制限のあるコンテンツ(商用のMA15+コンテンツとR18+コンテンツ)へのアクセスを制限する」ことを義務付ける法律(Cleanfeedと呼ばれる)を導入しており、2008年1月20日から施行される予定である。[ 24 ]
Cleanfeedは、ISPレベルのコンテンツフィルタリングシステムの義務化を提案するものです。ビーズリー率いるオーストラリア労働党の野党が2006年のプレスリリースで提案したもので、親のコンピュータリテラシー不足により脆弱な立場にある子供たちを保護することを目的としています。2007年12月31日、ラッド率いる労働党政権が実施する政策として発表され、タスマニア州での初期テストの結果、2008年の報告書が作成されました。Cleanfeedは現在の予算で資金提供されており、2008年にISPとの実稼働テスト実施に向けた関心表明(Expression of Interest)に向けて準備が進められています。EFAを筆頭に、一般市民からの反対と批判が高まり、主流メディアも時折その注目を集めています。オーストラリア国民の大多数が導入に「強く反対」していると報じられています。[ 25 ]批判点としては、費用の高さ、不正確さ(違法サイトのみをブロックすることは不可能)、そして強制導入であること(言論の自由の侵害とみなされる可能性がある)などが挙げられます。[ 25 ]もう一つの大きな批判点は、このフィルターは特定のコンテンツを遮断すると謳われているものの、そのようなコンテンツを扱う闇取引業者には影響がないという点です。また、このフィルターは親に誤った安心感を与え、インターネット利用中の子供の監視を怠らせ、全く逆の効果をもたらす可能性があります。クリーンフィードはコンロイ上院議員の管轄です。
デンマークでは、「デンマーク全土の児童図書館から不適切なインターネットサイトへのアクセスを防止する」という方針が表明されている。[ 26 ]「『国内のすべての図書館が、図書館のコンピュータを利用する際に、児童をポルノコンテンツから保護する機会を持つことが重要です。文化大臣である私にとって、児童が図書館で安全にネットサーフィンを行えるようにすることは最優先事項です』と、ブライアン・ミケルセン氏はデンマーク文化省のプレスリリースで述べている。」[ 27 ]
英国の多くの図書館、例えば大英図書館[ 28 ]や地方自治体の公共図書館[ 29 ]は、インターネットへのアクセスにフィルターを適用しています。Radical Librarians Collectiveの調査によると、少なくとも98%の公共図書館がフィルターを適用しており、「LGBT関連」「中絶」「疑わしい」といったカテゴリーが含まれています[ 30 ] 。一部の公共図書館は、ペイデローンのウェブサイトをブロックしています[ 31 ]。
米国の公立図書館では、インターネット フィルターやコンテンツ制御ソフトウェアの使用状況は大きく異なります。これは、インターネットの使用に関するポリシーが各地域の図書館委員会によって定められているためです。多くの図書館がインターネット フィルターを採用したのは、連邦議会が児童インターネット保護法(CIPA) に基づき、ユニバーサル サービス割引を受けるにはインターネット フィルターの使用が条件とした後のことです。他の図書館は、許容される使用ポリシーと教育的取り組みによって、年齢にふさわしくないコンテンツに子供がアクセスするという問題に対処しつつ、成人ユーザーが自由に情報にアクセスする権利を保護することができると考え、コンテンツ制御ソフトウェアをインストールしていません。図書館によっては、子供が使用するコンピューターにのみインターネット フィルターを使用しています。コンテンツ制御ソフトウェアを採用している図書館の中には、司書に申請すればケースバイケースでソフトウェアを無効にできるところもあります。CIPA の対象となる図書館は、大人が理由を説明せずにフィルターの無効化を要求できるポリシーを定める必要があります。
多くの法学者は、図書館におけるコンテンツ制御ソフトウェアの使用は憲法修正第一条に違反するとして、特にリノ対アメリカ自由人権協会の訴訟をはじめとする数々の判例を挙げている。 [ 32 ]児童インターネット保護法(CIPA)と2003年6月の米国対アメリカ図書館協会の訴訟では、連邦資金の受給条件としてCIPAが合憲とされ、成人の図書館利用者がフィルタリングソフトウェアを無効化することを理由を説明することなく認める同法の条項によって憲法修正第一条の懸念は払拭されたとされた。しかし、この多数決判決は、将来的に「適用上の」憲法上の異議申し立てを可能としている。
2006年11月、ワシントン州のノースセントラル地域図書館地区(NCRL)に対し、成人利用者の要請に応じて制限を解除しない方針をとったとして訴訟が提起されたが、CIPAはこの件で争われなかった。[ 33 ] 2010年5月、ワシントン州最高裁判所は、ワシントン州東部地区連邦地方裁判所から付託された「ワシントン州憲法第1条第5項に従い、公立図書館は、成人利用者の要請に応じて、憲法で保護された言論を含むウェブサイトを無効にすることなく、すべての利用者のインターネットアクセスをフィルタリングできるか」という質問について認証を求められた後に意見を述べた。ワシントン州最高裁判所は、NCRLのインターネットフィルタリング方針はワシントン州憲法第1条第5項に違反しないとの判決を下した。裁判所は次のように述べた。「NCRLのフィルタリング方針は合理的であり、その使命とこれらの方針に合致しており、観点に中立的であると考えられる。本件には、第1条第5項の内容に基づく違反は存在しないと思われる。NCRLの本質的な使命は、読書と生涯学習を促進することである。NCRLが主張するように、学習と思索を促す環境を維持するために、インターネットへのアクセスを制限することは合理的である。」本件は連邦裁判所に差し戻された。
2007年3月、バージニア州はCIPAに類似した法律を可決し、州の資金援助を受ける公共図書館にコンテンツ管理ソフトウェアの使用を義務付けました。CIPAと同様に、この法律も、利用者からの要請があった場合、成人利用者向けのフィルターを無効にすることを図書館に義務付けています。[ 34 ]
コンテンツのフィルタリングに熱心すぎるフィルタを使用したり、検閲対象ではないコンテンツに誤ったラベルを付けたりすると、過剰なブロックや過剰な検閲につながる可能性があります。過剰なブロックにより、有効なフィルタリングポリシーでは許容されるはずのコンテンツがフィルタリングされてしまう可能性があります。たとえば、スカンソープ問題により、健康関連の情報がポルノ関連のコンテンツとともに意図せずフィルタリングされてしまう可能性があります。フィルタ管理者は、望ましくないと判断したサイトにアクセスするリスクを防ぐために、過剰なブロックを受け入れることで用心深く対処することを好む場合があります。コンテンツ制御ソフトウェアは、アーケディア大学に名前が変更される前のビーバー大学へのアクセスをブロックしていたとされています。[ 35 ]もう1つの例は、ホーニマン博物館のフィルタリングです。[ 36 ]また、過剰なブロックは、ユーザーがフィルターを完全に回避するように促すこともあります。
インターネットに新しい情報がアップロードされるたびに、フィルターの保守責任者が迅速かつ正確に更新を行わず、ホワイトリストではなくブラックリストによるフィルタリングポリシーが適用されている場合、フィルターはコンテンツをブロックまたは検閲しきれない可能性があります。[ 37 ]
多くの人々[ 38 ]は、道徳的または政治的な問題に関する政府のフィルタリングに満足せず、それがプロパガンダの支援になり得ることに同意するだろう。また、多くの人々[ 39 ]は、ISPが、法律によるかISP自身の選択によるかを問わず、ユーザーが自身の接続でフィルタリングを無効にすることを許可せずに、そのようなソフトウェアを導入することは受け入れられないと考えるだろう。アメリカ合衆国では、強制的なインターネット検閲を犯罪化するための呼びかけにおいて、アメリカ合衆国憲法修正第一条が引用されている。(以下のセクションを参照)
多くの種類のコンテンツ制御ソフトウェアが、企業所有者の宗教的、政治的傾向に基づいてサイトをブロックすることがわかっています。例としては、いくつかの宗教サイト[ 40 ] [ 41 ](バチカンのウェブサイトを含む)、多くの政治サイト、同性愛関連のサイトがブロックされています。[42] X-Stopは、クエーカー教徒のウェブサイト、National Journal of Sexual Orientation Law、The Heritage Foundation、The Ethical Spectacleの一部などのサイトをブロックすることがわかっています。 [ 43 ] CYBERsitterはNational Organization for Womenなどのサイトをブロックします。[ 44 ]学術研究者で弁護士のナンシー・ウィラードは、多くの米国の公立学校や図書館が、多くのキリスト教団体が使用しているのと同じフィルタリングソフトウェアを使用していると指摘しました。[ 45 ]サイバーパトロールは、名誉毀損防止同盟とマテル社のラーニングカンパニーが開発した製品であるが、[ 46 ]ヘイトスピーチに関与しているとみなされる政治サイトだけでなく、アムネスティ・インターナショナルのイスラエルに関するウェブページなどの人権ウェブサイトやglaad.orgなどの同性愛者の権利ウェブサイトもブロックしていることが判明している。[ 47 ]
1998年、バージニア州の米国連邦地方裁判所は、公共図書館における強制フィルタリングの導入は憲法修正第1条に違反するとの判決を下した(ラウドン対ラウドン郡図書館理事会)。 [ 48 ]
1996年、米国議会は通信品位法を可決し、インターネット上のわいせつなコンテンツを禁止しました。市民団体は憲法修正第一条に基づきこの法律に異議を唱え、1997年に最高裁判所は彼らに有利な判決を下しました。[ 49 ]市民団体、特に電子フロンティア財団のような団体による市民団体の主張の一部は、[ 50 ]サイトをブロックしたい親は独自のコンテンツフィルタリングソフトウェアを使用できるため、政府の関与は不要であるというものでした。[ 51 ]
1990年代後半、Censorware Projectなどのグループは、コンテンツ制御ソフトウェアのリバースエンジニアリングとブラックリストの解読を開始し、ソフトウェアがどのようなサイトをブロックしているかを突き止めようとしました。これは、「サイバーパトロール」ライセンス契約違反を主張する訴訟に発展しました。[ 52 ]彼らは、こうしたツールが、問題のないサイトを日常的にブロックする一方で、意図したターゲットをブロックできていないことを発見しました。
一部のコンテンツ制御ソフトウェア企業は、自社のフィルタリング基準は徹底的な手作業によるチェックによって裏付けられていると主張して反論した。一方、反対派は、必要なチェックを行うには企業が保有するリソースを超えるリソースが必要となるため、その主張は正当ではないと主張した。[ 53 ]
映画協会は、加入者による著作権侵害を防ぐためにISPにコンテンツ制御ソフトウェアの使用を義務付ける英国の判決を勝ち取ることに成功した。 [ 54 ]
コンテンツフィルタリングは一般的に「技術に精通した個人によって完全に回避される」可能性がある。デバイス上でコンテンツをブロックしても、「ユーザーが最終的にフィルターを回避する方法を見つけられないという保証はない」。[ 55 ]コンテンツプロバイダーは、フィルタリングを回避するためにURLやIPアドレスを変更する可能性がある。技術的な専門知識を持つ個人は、制限されたコンテンツが存在する共有IPアドレスに誘導する複数のドメインまたはURLを使用するという別の方法を使用するかもしれない。この戦略はIPパケットフィルタリングを回避することはできないが、DNSポイズニングやウェブプロキシを回避することはできる。さらに、加害者はフィルターを回避するミラーリングされたウェブサイトを利用する可能性がある。[ 56 ]
一部のソフトウェアは、 FTPやtelnetやHTTPSなどの代替プロトコルの使用、別の言語での検索の実行、プロキシサーバーやPsiphonなどの迂回ツールの使用によって、正常にバイパスされる可能性があります。また、Google や他の検索によって返されたキャッシュされたウェブページも、一部の制御をバイパスする可能性があります。ウェブシンジケーションサービスは、コンテンツの代替パスを提供する場合があります。設計の不十分なプログラムの一部は、プロセスを強制終了することでシャットダウンできます。たとえば、Microsoft Windows ではWindowsタスクマネージャー、 Mac OS Xでは強制終了またはアクティビティ モニターを使用します。コンテンツ制御ソフトウェアの作成者による多数の回避策と回避策に対する対抗策が存在します。Googleサービスはフィルターによってブロックされることがよくありますが、コンテンツ フィルタリング ソフトウェアはセキュアな接続 (この場合は SSL) 下ではコンテンツを解釈できないため、 http ://の代わりにhttps://を使用することでバイパスできる場合が最も多いです。
暗号化されたVPNは、コンテンツ制御ソフトウェアを回避する手段として使用できます。特に、コンテンツ制御ソフトウェアがインターネットゲートウェイまたはファイアウォールにインストールされている場合、その可能性が高くなります。コンテンツ制御フィルターを回避するその他の方法としては、翻訳サイトや、検閲されていないデバイスとのリモート接続を確立することが挙げられます。 [ 57 ]