ざっくり2025年のAI関係とかの振り返りと2026年の展望というか予想みたいな。

2025年のAI関連を振り返ってみると

1月 DeepSeek-R1(1/20)
2月 ChatGPT Deep Research(2/3)Claude 3.7 Sonnet & Claude Code(2/24)。
3月 Gemma 3(Googleオープンモデル)リリース。Google Gemini 2.5 Pro (Experimental)。
4月 Llama 4(4/7): Metaの次世代モデル。Qwen3(4/29): AlibabaのMoE型モデル。
5月 Claude 4 (Opus 4 / Sonnet 4)(5/22): 数時間の自律ワークフロー対応。
6月 Gemini CLI(6/26): 開発者向けターミナルエージェント。
7月 Grok 4 / Grok 4 Heavy(7/9): 感情知能とマルチエージェント。xAI Companions(AIアバター)。
8月 Claude Opus 4.1(8/5)。GPT-5 正式リリース(8/7)。
9月 Claude Sonnet 4.5(9/29)。OpenAI Sora 2 のAPI拡大。
10月 OpenAI DevDay(10/7): AgentKit, Sora 2 API, Apps SDK。ChatGPT Atlas(AIブラウザ)。
11月 GPT-5.1(11/12)。Gemini 3 Pro(11/18)。Claude Opus 4.5(11/24)。
12月 GPT-5.2 / GPT-5.2-Codex(12/11 & 12/18)。Gemini 3 Flash(12/17)。

と、1月のDeepSeeKショック(低コストでGPT4シリーズ並みの推論レベル)があったり、CLIという現在のGUI以前のテキストでの指示モデルが流行したり、GPT5リリースに伴う#Keep4oやxAIの3Dコンパニオンキャラクタの登場といった、人間の感情にAIが与える大きさであったり、画像・映像生成の進化だったり、各社のメインモデルが続々リリースされたり(中でもGemini3発表後にOpenAIがコードレッドを出してアップデートを急いだり)、AIブラウザが複数登場したりと、本当に色々あったなーという印象を受けます。

もちろんこれ以外にも、オープンソースやオープンウェイトモデルの公開が進んだり、つい最近では、XにおけるAIで画像を編集できることによる問題や簡単に映像が生成できるSora 2の著作権問題など様々なニュースもありました。

AIのメインモデルの進化はベンチマークなどで証明されたりしていますが、実際に使ってみてそれほどディープに使ってない限り分からないレベルの変化(もちろんハルシネーションの逓減や使い勝手の向上などもあります)が多かったようにも感じます。

2022年11月のChatGPT3.5からわずか3年でここまで進歩し、またユーザ数がこれだけ急激に増えた例は、おそらくネットが普及して以来、これまでにない現象とも考えられるので、かなり異例な現象だとも考えられます。

その一方、生成AIにテキストの生成を丸投げしたりすることによるSlop(生成AIの文章をそのままコピペしたような低品質なもの)の増加や、AIで簡単に誰でも楽に稼げるといった胡散臭い副業ビジネス(というか、儲け方を売る情報商材ビジネスなど)も多くなった印象も受けます。

ぶっちゃけて言うと、noteとかBrainみたいなAIに生成させたコンテンツをそのまま有料で販売して、それが儲け方を売るものだったり、アフィリエイトでどんどん売るっていうデジタルアムウェイ(ただで作ったデジタル情報商材を販売して、それを紹介して売れればお金が入るみたいな、プラットフォームを頂点としてピラミッドみたいな感じ)みたいなものが増えたのがなんだかなーって思います。中にはまともものもあるのだろうけど、結局一番儲かるのは売り上げの手数料を取れるプラットフォームっていうのがね…。

AIが極めて自然な文章を書くことができることによって、文章を考えたり書いたりするといった認知負荷の低減が良くも悪くも進んでしまい、粗雑なプロンプトで生成した粗雑な文章や、画像・映像が増えた印象も受けます。

技術が進歩することは悪いことではありませんし、それを利用し不要な手間を削減することはいいことだとも思いますが、あまりにもAIに何でもかんでも任せてしまい、最終確認すらしないようなものが増えたのは残念な点でもあります。

スマートフォンが普及し、画面から得られる情報が文字データから映像データになったり、文字データも一文を短く切ることで、スマホで読みやすくするといった流れもあり、AI生成による内容をより薄くすることで、情報全体が本当に薄い、読みやすいけど後には何も残らないものが増えたというのも個人的に感じています。

これがいいか悪いかは個人の好みなので何とも言えませんが、このような薄い内容の情報がAIの学習データに使われたとすると、さらに薄い内容になったり、同じような内容のものばかりになったり、データ汚染の元凶になるんじゃないのかという心配もあったりします。とりあえず投稿する前に、校正、推敲ぐらいしてほしいです。

もちろんAIを使って文章を書くのは書くのが苦手な人には良いことだとも思いますし、アイデアだしや文章を作成する上での壁打ちなんかにはいいとも感じています。けど、無理に書けない時とか、書きたくない時に無理して書かなくてもいいんじゃないかとも思います。

そんな感じの2025年でした。

で、2026年はどうなるかなと考えた時、テキスト生成はより進化し自然な文章も書けるようになるだろうし、画像や映像も進化して本物か偽物か分からないか、人間では表現できないようなものを生成できるようになるのかも。特に映像に関してはまだ長くて1分前後のもので時系列の整合性が取れてないものが、より長尺になって時間や背景の整合性が取れたものが音声や音楽と同時に作れたりするようになるんじゃないかな(もちろんそれぞれ映像、音声、音楽を別に編集出来たり)と思ったり。あとは物理シミュレーションが強くなりそう。そうなると、どういった映像を作るかというアイデアやコンセプトがこれまで以上に重要になる気がします。クリエイティビティが人間の最後の砦なのかもしれないと感じます。

またマルチモーダル化が進むことで、AIが世界を認識し、世界を理解するいわゆる世界モデル「世界シミュレーター」が進化して、AIが「この行動したら世界はどう変わるか」を予測する能力が跳ね上がるかも。

AIエージェントもより賢く正確に動作するようになり、より複数ステップのタスクを自律的にこなすエージェントが仕事や日常に浸透して、コーディング、クリエイティブ作業、研究支援なんかが進むかもしれない。ただしこれが本当に正確かを見極める人間の能力も試されるとも感じる。このエージェント機能の進化が2026年に最もいろいろありそうな気もします。

自然言語で対話する環境の中で、様々なアプリと結合されていて特にこのアプリを使おうと意識しなくても、半自動的に連携しているアプリを使ったり呼び出したりできるようになり、よりワークフローが途切れずになるような、逆に言うとどのアプリを今使ってるか分からないような状態になるのかもしれません。意識せず色んなアプリを連携できるのは便利そうですけど、バックグラウンドはややこしくなってそうですね。

またスマホやPC単独で動くよりパーソナライズされプライバシーを重視した小型モデルで低電力なモデルの普及もあり得そう。クラウド経由かある程度のGPUなどの計算資源が必要なものだけでなく、オフラインのスマホ単体でそれなりの処理ができるモデルの登場も期待したいところだけど、なかなか難しそう。ある程度オフラインある程度クラウド経由っていう感じのモデルになるのかもしれない気もするけど、どうなるのか。

ただ、AIに頼りすぎて、人間がだらけるリスクは現実的かとか。簡単に使えたり作れすぎるツールが増えて、クリエイティブな仕事がAI任せになると、人間のスキルが退化したり、モチベーション下がったりする人も増えそうな気もします。2025年のSlop問題みたいに、動画も「AI生成だらけ」で本物のクオリティ見極めが難しくなるかも。まぁSlopは増えることはあっても減ることは当分なさそうですが。

生産性パラドックスという点でも、企業レベルではAI導入が進むけど、短期的に「本当に生産性上がった?」って疑問が出るケース多そう。人間がAIに依存しすぎて、クリエイティブな思考や問題解決力が弱まる「laziness effect」が社会問題化するかも。でも、適応できる人は伸びる可能性もありそう、AIを「きちんと協業ツールとして使いこなす」っていう人が増えればだけど。新しい仕事(AIプロンプトエンジニアから、AI監督や倫理監修など)が生まれて、結局人間の役割は「初期のアイデア出し」や「最終的な判断」にシフトする可能性が高そう。

これは文章や静止画や動画、コードを書く上で重要な要素になりそう。すべてAIに任せるのではなく「最初のアイデアだし」と「中間ステップ」、「最終判断(責任)」をしっかりと人間が自覚して、映像、文章、コード、どれも「一度AIに出させて、人間が質をチェック」するステップを入れる、特に重要なものは複数人でレビューしたり、AIの出力根拠(reasoning trace)を見たりして、「なぜこうなったか」を理解する。

そうしないとブラックボックス化が進みなぜそうなったのかが分からくなったり、後で変更を加えようとした時に分からなければ手直ししたり、将来的な拡張性考えてコードを組むことが重要になりそう。動くけど「この変数名、プロジェクトの命名ルールと合ってない」「ここで例外処理忘れてる」「将来的にスケールした時に詰む設計」みたいな落とし穴をなくし、より良いものを作れればいいなと思ってます。

よく人間は演奏者から指揮者に代わるみたいないい方をされますが、指揮者って実際は一つの楽器や複数の楽器を極めた人がほとんどで、きちんとその音の背景とかを理解していないといけないのでかなり難しい仕事だと思います。簡単に指揮者っていうけれど実際指揮者が演奏を披露するまでの苦労も計り知れないものがありそうです。

人間、AIそれぞれが得意な事、不得意な事、できる事できないことをきちんと理解して、バランスよく使っていき、「つまらない作業」から解放されて、本当に人間にしかできない部分に集中できるようになればいいなと思います。

データの整合性チェックとか、論理的一貫性、スペルミス、重複の検出みたいなのは、AIが圧倒的に強いから、人間がやると疲れるし、見落としやすい部分を、AIは一瞬で完璧にやってくれる。一方で、細かなニュアンス、文化的文脈、相手の感情への配慮、行間の読み取り、ユーモアの塩梅とかは、まだ人間の方が多分優れてる。特に日本語だと、敬語の微妙な使い分けとか、曖昧表現の意図とか、AIだけだとどうしても「正しいけどなんか違う」ってなることが多い気がしてます。

だからこそAIを使うということは便利さもあるけれど、人間性を問われる時代なのかなって思っています。特に個人的なエッセイやブログなんかは人間が書いた方が面白いんじゃないかという、ある意味昔に戻るかもしれないとも感じています。もちろん社内資料、技術レポート、データまとめみたいな「読みやすさと正確さが命」のものはAIが得意としてるけど、これも最終的に人間のチェックが必要とも感じています。

技術が進歩して賢いAIが出てくることで人間性や倫理、哲学が再注目されるというのは何とも不思議な感じもしますが、これからは人間性(矛盾とかブレとか)とAIの論理的整合性が交わっていく時代なのかなとも感じます。

まあだいたいこういう予想みたいなのは当たらないんですけどね。当たってもなんももらえませんし。

Translate »
タイトルとURLをコピーしました