【サイト運営者必見】自分の記事やコンテンツをAI学習から守る3つの防御策

ブログや小説を公開していると、Googleなどの検索エンジンだけでなく、AI開発会社のロボット(クローラー)もサイトを巡回します。

この話の何が問題かというと、要するに、「一生懸命書いたコンテンツを、タダでパクられる」ということですね。
しかも、著作権の概念もなく、他のサイトと混ぜ合わせられながら、原型が残らないほどに魔改造され、おいしいところだけ利用されることになります。

大事なのは、何もしなければ「学習OK」とみなされてしまうものの、正しく設定を行えば「拒否」の意思を伝えることが可能という点です。

今回は、初心者でも今すぐできる対策をまとめました。

――悪いことは言わない、絶対やっておけ。

(パソコンのウイルス対策なんかより、もはやはるかに大事な問題なんだ)

ライターは趣味でブログを運営していますが、それでもやっておくことを強くおすすめします。


1. サイトの玄関でブロック!「robots.txt」の設定

robots.txt とは、サイトのルートディレクトリ(一番上の階層)に置く、クローラーへの「指示書」です。

もし「robots.txt」がない場合は?

mixhostなどのファイルマネージャーを確認して、ファイルが存在しない場合は新しく作ればOKです。

  1. 新規作成: cPanelのファイルマネージャーで public_html フォルダを開き、「+File」から robots.txt という名前の空ファイルを作成します。

  2. 内容の記述: 作成したファイルを編集(Edit)し、以下のコードを貼り付けます。

Plaintext

# 主要なAI学習クローラーを拒否
User-agent: GPTBot
Disallow: /

User-agent: ChatGPT-User
Disallow: /

User-agent: Google-Extended
Disallow: /

User-agent: CCBot
Disallow: /

# 通常の検索エンジンは許可
User-agent: *
Allow: /

これにより、ChatGPTやGeminiなどの主要なAIに対して「入室禁止」を伝えることができます。


2. Cocoonなら一瞬!メタタグでの一括設定

各ページの中に「AI学習禁止」という命令(メタタグ)を埋め込む方法です。WordPressテーマのCocoonなら、全記事に一括で反映できます。

Cocoonでの設定手順

  1. WordPress管理画面から 「Cocoon設定」>「Cocoon設定」 を開く。

  2. 「アクセス解析・認証」 タブをクリック。

  3. 「ヘッド用コード」 という入力欄に以下の1行を貼り付ける。

HTML

<meta name="robots" content="noai, noimageai">
  1. 「変更をまとめて保存」をクリック。

これで、全記事のヘッダー部分にAI学習禁止の意思表示が自動的に追加されます。


3. 「意思」を明文化する!利用規約のテンプレート

技術的な対策に加えて、サイト内の「利用規約」や「免責事項」にAI学習禁止を明記しておくことも重要です。これは法的トラブルになった際の根拠になります。

以下のテンプレートを、サイトの「プライバシーポリシー」や「利用規約」ページにコピペして活用してください。

【AI学習およびスクレイピングに関する禁止事項】

当サイトに掲載されているすべてのコンテンツ(文章、画像、小説、プログラム等)について、以下の行為を固く禁じます。

  1. 生成系AI(文章生成、画像生成等)の学習データとしての利用(スクレイピング、クローリング、機械学習を含む)。

  2. 当サイトの許可なく、コンテンツを翻案、改変、またはAIを用いた二次的著作物の作成に利用すること。

  3. 自動化された手段(クローラー、ボット等)を用いてコンテンツを収集し、商用・非商用を問わず外部のデータベースへ蓄積すること。


まとめ:自分の作品を「放置」しないために

AIの技術は日々進化していますが、クリエイターが「拒否する権利」があることも広く認識され始めています。

  • robots.txt でサイトへの進入を制限する

  • Cocoonの設定 でページごとに拒否タグを入れる

  • 利用規約 で法的な意思表示をする

この3段構えで対策しておくことで、安心して創作活動を続けられる環境を整えましょう!


コメント

タイトルとURLをコピーしました