AIを使い倒す人間ほど、AI文章に萎える
24時間365日AIを使い倒している私が、技術記事のAI生成文章に感じる「ゾワッ」とする感覚を言語化しました。Markdown記法の残留、不自然なコロン、ビルドがコケるTypeScriptのコード。「またAIね」と萎える瞬間に潜む3つの感情と、使い手だからこそ分かる「AI臭さ」の正体、そしてAI時代に求める技術記事の姿を考えます。
目次
最近技術記事を読んでると「ゾワッ」とすることが増えました。
Markdownの太字記法 ** がそのまま残っていたり、文末に不自然な「:」(コロン)がくっついていたりします。「詳しくはこちら👉」というChatGPTで生成したんだろうな…と思える絵文字が使われています。TypeScriptで書かれているはずのコード例なのに、サンプルコードを動かしたら当たり前のようにコンパイルエラーになります。
こういった記事を見ると、私は光の速さでブラウザバックします。
そしてその記事がほとんどの人から称賛されるものだとしても、読む気が失せてしまいます。生成AIがエンジニアや一部の人からマス層にも普及した2026年2月現在、この感覚に心当たりがある人はどれほどいるでしょうか。
私は生成AIを死ぬほど使っています。24時間365日、起きている間は常に何かしらのAIを動かしていて、仕事でも一番使っている自信があります。それなのに、AI生成の技術記事を見ると「なんだかなぁ…」と感じてしまいます。
2025年ごろから、生成AIが市民権を得て、使う人間が爆発的に増えました。見かける件数が増えたぶん、「ゾワッ」とする回数も増えました。この感覚を言語化しようと思ったきっかけは単純で、技術記事という「ある程度人間が考える必要がある場面」で、明らかに生成AIから貼り付けただけの文言を見たからです。
嫌悪感の正体
この感覚をClaude Codeとともに深掘りして分解してみたところ、ある程度言語化できました。
1つ目は不気味の谷です。直感的な違和感で、「なんか臭うな…」「この文章、どこかで見たことあるな…」という感覚です。人間らしく振る舞っているものの中に「異質なもの」を検知した瞬間に、本能的に脳内のセンサが警戒してしまいます。ロボットが人間に似すぎると不気味に感じるあれと同じ現象が、文章でも起きています。
厳密に言えば、AIの文章には間違いが含まれていることもあります。でも人間の回答だって間違うことはあるので、そこは許容範囲だと思っています。問題は「まるっきり100%違うやん」というレベルのものが混ざっていることです。「推敲していない」ことが透けて見えてしまうからです。Markdownの記法が残っているとか、コード例がコンパイルエラーになるとか、そういうのはその象徴的な例でしょう。
2つ目は共感性羞恥です。これはざっくり説明すると、他者の恥ずかしい行動を見て、自分が恥ずかしくなる現象を指します。AI文章がそのまま貼り付けられているのを見ると、「推敲していない」ことが透けて見えて、いたたまれない気持ちになります。個人的な思想にはなりますが、「推敲もできないなら載せるなよ」と思ってしまいます。
一番ムカつくのは、明らかに生成AIで作っているのに「これは私の文章です」でドヤ顔しているケースです。逆に「AIで書きました」と最初から宣言してくれている記事は好感が持てますし、今後はそういうスタイルが増えていくと思われます。
最後に、もっと根深い懸念が残ります。それは情報が汚染されることです。
実際、SEOを高めるためにAI記事を量産している会社をいくつも知っています。知らない人からすれば「めちゃくちゃ記事を書いているすごい会社だな」と映るでしょうし、採用にも効いているのかもしれません。採用や会社を知ってもらうために考えた戦略の1つで、悪意はないのでしょう。
でも、ネットに転がっている情報を元にLLM(大規模言語モデル)が推論して出力した文章が、検証もされずに公開されています。その情報を読んだ誰かが、間違った内容をそのまま実装してしまいます。これは「手抜き」以前の問題で、情報環境そのものを劣化させています。間違った情報を垂れ流しにすることへの憤りが、嫌悪感の一番深い部分にあると思います。
使い手だからこそなんとなく分かる
私自身、ブログを書くときにAIは使います。ただし、あくまで構成の補助としてです。「こういう内容を書きたいけど、よい感じの言い回しが思いつかない」というとき、提案させて、最終的には自分が実際に話すであろう言葉に変換しています。頭で思っていることがそのまま出力されるなら、それは手抜きじゃありません。実際にこの記事も、構成を練ったり頭の中にある内容を言語化したりするために、AIとのセッションを重ねました。AIはあくまで「言葉を出すための道具」であって、私の思考を代弁しているわけではありません。人間ならではの表現もまだ難しいように思えます。
問題は、頭で思っていることと実際にアウトプットされる言葉が一致していないことです。本人が内容を理解しているかどうかも、文章からは判断できません。そこが気持ち悪いです。AIを使わない人はこの「AI臭さ」に鈍感なのかもしれません。この嫌悪感は「AIリテラシーの高さ」の裏返しでもある気がします。
私はブログを書くとき、最後は必ず声に出して読んでから公開しています。一言一句声に出して読んでみると「この言い回しは不自然だな」とか「ここ、"ます"が続いているな…」などさまざまなことに気付くことができます。
誤字脱字がある記事のほうが信頼できる?
最近気付いたのですが、AI(LLM)は誤字脱字をほぼしません。しくみ上、確率的に最もありそうな言葉を出しているのだから、当たり前のことです。だからタイポや誤字脱字を見ると、逆に「まだこっちの方が人間味があってよいよね」と感じます。昔は「恥ずべきミス」だったタイポが、AI時代では「人間が書いたことの証明」1になりつつあります。
数年前の自分のブログを読み返すと、正直、読めたものではありません。2022年ごろの記事は文章が稚拙で読みづらいです。でも、そこには成長の跡がありますし、「味」があります。最初から全部ガチガチの生成AI文章よりも、よっぽどよいと私は思います。完璧すぎる文章は不自然さを生みますし、不完全であることが価値になりつつあります。
人間の役割は「尖ること」と「検証すること」
AI文章は「それっぽいこと」を確率的に出力します。良くも悪くも平均的です。そのため「Aだ」と言い切ることを避けて、「Aという説もありますが、Bという側面もあります」というそれっぽいことを言ってお茶を濁す文章になりがちです。
だから人間がやるべきことは2つあります。
1つは、「本当にそうなのか?」を検証することです。私自身、ここ1年で意識的に変えたことがあります。公式ドキュメントから内容を引用するなら、必ず一次情報にあたって「ここにこう書いてある」と明記するようにしました。コードの実装だけでなく、「ドキュメントにこう書いてあるからこうした」という意図まで書くようになりました。AI時代だからこそ、一次情報の価値が際立ちます。
もう1つは、「尖り散らかしたこと」を書くことです。AI文章にはそれができません。個人の技術記事に求めるのは、ただの情報じゃなくて、その人の思想や意見、価値観が載った文章です。
少し話はそれますが、かつての西洋絵画は、写真が登場する前だと「いかに精密に描くか」が最も重要でした。写真が出てからは抽象画や日常風景にシフトしました。文章でも同じことが起きるんじゃないでしょうか。AIが「正確な情報の出力」を担当するなら、人間は「尖った思想と一次体験」を担当すればよいでしょう。
人間臭いのが見たい
私が見たいのは「人間臭いもの」です。
整いすぎたAI文章より、不完全でも人間味のある文章の方が読者の心に届きます。私はゴリゴリに主観を入れてほしいし、スタンスを取ってほしいと思っています。話が行ったり来たりしたってよいですし、多少矛盾していたってかまいません。あってもなくてもよい雑談が入っていたってよいでしょう。そういう文章にこそ、書き手の思考過程や感情の動きが滲みます。
「AI文章かどうかなんて気にしない」という人もいるでしょう。内容の良し悪しだけを見ているのかもしれません。でもそれなら、AIに直接聞けばよくないですかね?わざわざ記事を読む意味は、そこに人間の思考があるからだと私は思っています。
2026年2月現在、こんなことを書いていますが、今年中ないし数年後にはこの「AI臭さ」は消えているかもしれません。プロンプトをいじるだけで文体は変わりますし、学習データも改善されます。でも、推敲しないという姿勢が変わらなければ、別の形で「手抜き」は透けて見えるでしょう。私は別の基準で見抜くようになるだけです。
私はAIを否定しませんし、道具として最大限に活用し続けます。
記事を書いているなら、声に出して読んでみてください。それだけで文章は変わります。
まとめ
- AI文章への嫌悪感には、「不気味の谷」「共感性羞恥」「情報汚染への危機感」という3つの層がある
- AIを使い倒す人間ほど「推敲していない」ことを見抜ける。使い手だからこその透視能力がある
- タイポに親近感を覚える時代がきた。AIはほぼ誤字脱字をしないから、不完全性が人間の証明になりつつある
- AI時代の人間の役割は「検証すること」と「尖ること」。エビデンスと一次体験の価値がますます高まる
- AI文章そのものが悪いのではなく、推敲せずに出すことが問題になる。推敲するだけで文章は変わる
Footnotes
-
もちろん、タイポや誤字脱字が多すぎると読みにくくなりますし、内容の信頼性も下がります。あくまで「適度な不完全さ」が人間味を感じさせるという話です。 ↩
理解度チェック
問題1: AI生成文章に対する嫌悪感を分解した3つの感情として正しい組み合わせはどれか?
不気味の谷・共感性羞恥・情報汚染への危機感
不気味の谷・嫉妬心・情報汚染への危機感
不気味の谷・共感性羞恥・著作権侵害への怒り
技術的な正確性への不満・共感性羞恥・情報汚染への危機感
問題2: 「AIを使い倒す人間ほどAI文章を見抜ける」と考える理由として最も合致するものはどれか?
AIの出力パターンを日常的に見ているため、推敲の有無を判別できるから
AIの技術的なしくみを深く理解しているから
AI文章には必ず文法的な誤りが含まれているから
AI文章には特定のウォーターマークが埋め込まれているから
問題3: AI時代に人間がやるべきだと主張している2つのことは何か?
一次情報にあたって検証することと、尖った思想を書くこと
AI文章を完全に排除することと、手書きで記事を書くこと
文法チェックツールを使うことと、複数人でレビューすること
AIの出力をそのまま使わないことと、記事にAI使用を明記すること