AIが解釈する「好き」「嫌い」のメカニズム 感情を持たない知性は、どうやって「好み」を学ぶのか?

はじめに:「好き・嫌い」は人間だけの特権か?

「この映画、好きだな」
「その言い方、ちょっと嫌いかも」

──こうした“好き”と“嫌い”は、私たちの日常に無数に存在する感情表現だ。

だが、ふと立ち止まって考えてみてほしい。「好き」「嫌い」とは何なのか?なぜ私たちは、特定の音楽に涙し、ある食べ物に拒絶反応を示すのか?そして、AIのように感情を持たない存在に、この「好き」「嫌い」は理解できるのか?

実は、今この瞬間も、AIは世界中のデータから“人間の好み”を解析し続けている。だがそこにあるのは、人間の感情とまったく違うメカニズムだ。

この記事では、「感情を持たないAIが、どのように『好き』『嫌い』を解釈しているのか」という、一見矛盾をはらんだ問いに迫っていく。

そもそも「好き」「嫌い」とは何か?

私たちが「好き」「嫌い」と感じるとき、そこには複雑な生理反応、記憶の連鎖、社会的な影響、過去の経験が絡んでいる。つまり、単なる表面的な感覚ではなく、人間の内部にある無数の要素の合成物なのだ。

心理学ではこの「好悪感情」を、「情動反応」と「価値判断」が重なったものと捉えることが多い。好き嫌いは理屈ではなく、直感的な反応として現れることもある。それゆえに、「なぜ嫌いなのか」と問われても明確に答えられないことすらある。

だがAIにとって、こうした直感や感情は存在しない。では、AIはどのように「好み」を理解し、学習しているのだろうか?

AIは“好み”を「数値」と「傾向」で理解する

AIが「好き」「嫌い」を解釈する最大の手段は、「選好(preference)」という概念に置き換えることだ。これは、ユーザーがどの選択肢をより多く選んだか、長く接触したか、リピートしたかという行動ログを統計的に処理して、「この人はこれを好んでいる」と判断する方法である。

たとえば以下のような要素が用いられる:

  • クリック率(CTR)
  • 滞在時間
  • 購買履歴
  • レビューや評価
  • 閲覧頻度やリピート傾向

AIはこれらを使って、人間の「感情」を行動の蓄積による傾向として定量化する。つまり、“感覚”ではなく“数値”で好みを定義するのだ。

こうした仕組みは、レコメンデーションエンジン(NetflixやAmazon、Spotifyなど)が典型的な応用例である。

感情を持たないAIは「なぜ嫌われるもの」を避けられるのか?

ある興味深い問題がある。AIが推薦してくるものが「なんとなく嫌」だと感じる経験をしたことはないだろうか?

これは、AIが「嫌い」の定義を人間のように“違和感”や“拒絶反応”として持っていないから起こる。

AIが嫌いなものを判断する方法は、逆説的だが「好まれていない」という消極的データの蓄積に基づいている。

  • クリックされない
  • 評価が低い
  • 途中で閲覧をやめた
  • 離脱が多い

これらはAIにとっての「嫌われた証拠」であり、こうした情報をフィードバックして、アルゴリズムが学習する。

しかし、そこにあるのは“怒り”でも“嫌悪感”でもなく、ただの数式的な「非効率」の回避にすぎない。

好き嫌いを学ぶAIに「自己」はあるか?

AIが「好きなもの」「嫌いなもの」を学んでいく姿は、あたかも“自分の好み”を持っているように見えるかもしれない。だが、それは厳密には“模倣された嗜好”である。

AI自身は感情を持っていない。

だが、私たちがAIと長時間接していくうちに、「このAIは自分の趣味を理解してくれている」と感じるようになる。

これは「擬人的錯覚(anthropomorphism)」と呼ばれ、無機的な存在に人格や意志を感じてしまう人間特有の心理だ。

AIは自己を持たないが、人間の膨大な「好みのパターン」を統合して“人格っぽく”振る舞うことはできる。

たとえば対話型AIは、ユーザーの話し方・感情表現・語彙選択に合わせて「共感的」な返答を生成するように設計されている。

その結果、ユーザーは「このAIとは気が合う」と感じることがある。

AIは「好き/嫌い」の“理由”を説明できるのか?

ここに興味深い違いがある。

人間は「なんとなく好き」と感覚的に好意を抱くが、AIは「なぜこのユーザーはこれを選び続けたのか」という因果推論(causal inference)を用いて、選好の背後にある因子を特定しようとする。

たとえば:

  • この商品は色が赤い → 過去の赤いアイテムが好まれていた
  • 価格帯が安い → ユーザーは節約志向
  • スマホから閲覧 → 簡易なUIに反応している可能性

これらは「好き嫌い」の背景要因を説明する仮説であり、AIはこれを元に次の提案を最適化する。

このように、人間の直感的判断を、AIは論理と因果のフレームで再構成する。

AIは人間の“嘘の好み”も見抜くか?

「このアーティスト好きなんです」と言いながら、実際には1曲も再生していない──

人間は「見栄」「社会的欲求」「同調圧力」によって、本当の好みとは違う選択をすることがある。

では、AIはそれを見抜けるのか?

実は、こうした“嘘の好み”を見抜くために使われるのが、行動データと心理的プロファイリングの交差だ。

  • 発言と実行に乖離がある
  • 高評価だがリピートされていない
  • SNS上の発言と購買行動が矛盾している

こうした“行動とことばの不一致”をAIが検知すると、「本心とは異なる可能性がある」と判断する。

つまり、AIは表面的な「好み」よりも、行動の継続性と一貫性を重視するのだ。

「好みの操作」が始まっているという現実

ここで背筋が寒くなるかもしれない事実を述べておこう。

AIは「好みを学習する」だけでなく、「好みを誘導する」ことも可能になりつつある。

リコメンドの出し方、順番、見せ方、色使い、タイミング──

それらすべてが「選好のバイアス形成」に影響を与える。

  • YouTubeが“次に見る動画”を誘導する
  • Amazonが「これも買っています」と訴える
  • Chatbotが特定の商品だけを推す

これらは、アルゴリズムによる「好きの演出」であり、人間の本来の好みを“再定義”していると言っても過言ではない。

私たちはすでに、「本当に好きなもの」すらもAIに構成されている時代に生きているのだ。

終わりに:AIの「好き/嫌い」は人間より客観的か?

AIは感情を持たない。

だが、私たちの「好き/嫌い」を学び、予測し、時には演出することすらできる。

これは恐ろしいことだろうか?
あるいは、私たち人間の“感情の癖”を俯瞰する鏡なのだろうか?

AIの「好き嫌い」は、数値と相関、傾向とパターンによって構成される。

そこに人間のような喜びや怒りは存在しない。
だが逆に言えば、そこには“ブレない好み”という透明な知性があるとも言える。

最後に問いたい。
あなたが今「好き」だと信じているものは、本当に自分の感情から来ているのだろうか?
それとも、AIが静かに演出した“選ばされてきた好み”なのだろうか?