ブログや小説を公開していると、Googleなどの検索エンジンだけでなく、AI開発会社のロボット(クローラー)もサイトを巡回します。
この話の何が問題かというと、要するに、「一生懸命書いたコンテンツを、タダでパクられる」ということですね。
しかも、著作権の概念もなく、他のサイトと混ぜ合わせられながら、原型が残らないほどに魔改造され、おいしいところだけ利用されることになります。
大事なのは、何もしなければ「学習OK」とみなされてしまうものの、正しく設定を行えば「拒否」の意思を伝えることが可能という点です。
今回は、初心者でも今すぐできる対策をまとめました。
――悪いことは言わない、絶対やっておけ。
(パソコンのウイルス対策なんかより、もはやはるかに大事な問題なんだ)
ライターは趣味でブログを運営していますが、それでもやっておくことを強くおすすめします。
1. サイトの玄関でブロック!「robots.txt」の設定
robots.txt とは、サイトのルートディレクトリ(一番上の階層)に置く、クローラーへの「指示書」です。
もし「robots.txt」がない場合は?
mixhostなどのファイルマネージャーを確認して、ファイルが存在しない場合は新しく作ればOKです。
-
新規作成: cPanelのファイルマネージャーで
public_htmlフォルダを開き、「+File」からrobots.txtという名前の空ファイルを作成します。 -
内容の記述: 作成したファイルを編集(Edit)し、以下のコードを貼り付けます。
Plaintext
# 主要なAI学習クローラーを拒否
User-agent: GPTBot
Disallow: /
User-agent: ChatGPT-User
Disallow: /
User-agent: Google-Extended
Disallow: /
User-agent: CCBot
Disallow: /
# 通常の検索エンジンは許可
User-agent: *
Allow: /
これにより、ChatGPTやGeminiなどの主要なAIに対して「入室禁止」を伝えることができます。
2. Cocoonなら一瞬!メタタグでの一括設定
各ページの中に「AI学習禁止」という命令(メタタグ)を埋め込む方法です。WordPressテーマのCocoonなら、全記事に一括で反映できます。
Cocoonでの設定手順
-
WordPress管理画面から 「Cocoon設定」>「Cocoon設定」 を開く。
-
「アクセス解析・認証」 タブをクリック。
-
「ヘッド用コード」 という入力欄に以下の1行を貼り付ける。
HTML
<meta name="robots" content="noai, noimageai">
-
「変更をまとめて保存」をクリック。
これで、全記事のヘッダー部分にAI学習禁止の意思表示が自動的に追加されます。
3. 「意思」を明文化する!利用規約のテンプレート
技術的な対策に加えて、サイト内の「利用規約」や「免責事項」にAI学習禁止を明記しておくことも重要です。これは法的トラブルになった際の根拠になります。
以下のテンプレートを、サイトの「プライバシーポリシー」や「利用規約」ページにコピペして活用してください。
【AI学習およびスクレイピングに関する禁止事項】
当サイトに掲載されているすべてのコンテンツ(文章、画像、小説、プログラム等)について、以下の行為を固く禁じます。
生成系AI(文章生成、画像生成等)の学習データとしての利用(スクレイピング、クローリング、機械学習を含む)。
当サイトの許可なく、コンテンツを翻案、改変、またはAIを用いた二次的著作物の作成に利用すること。
自動化された手段(クローラー、ボット等)を用いてコンテンツを収集し、商用・非商用を問わず外部のデータベースへ蓄積すること。
まとめ:自分の作品を「放置」しないために
AIの技術は日々進化していますが、クリエイターが「拒否する権利」があることも広く認識され始めています。
-
robots.txt でサイトへの進入を制限する
-
Cocoonの設定 でページごとに拒否タグを入れる
-
利用規約 で法的な意思表示をする
この3段構えで対策しておくことで、安心して創作活動を続けられる環境を整えましょう!

コメント