もくじ

F.I.N.編集部が未来の定番になると予想する言葉を取り上げて、その言葉に精通するプロの見解と合わせながら、新しい未来の考え方をひも解いていきます。今回は「バイブワーキング」をご紹介します。

 

(文:大芦実穂)

バイブワーキング【ばいぶ・わーきんぐ/Vibe Working】

AIを単なるツールではなく同僚として扱い、定型作業を任せることで、構想や意図の設計、最終的な判断など、人にしか担えない領域へリソースを集中させる働き方のこと。マイクロソフトが公式ブログで言及したことで広く知られるようになった。

「バイブワーキング」という言葉は、「バイブコーディング(Vibe Coding)」から広がった概念ではないか、と北海道大学大学院で人工知能を研究する川村秀憲(かわむら・ひでのり)さんは話します。

 

「バイブコーディングというのは、AIに厳密な指示書を渡さなくても、『こんな感じで』といった曖昧な依頼でまずたたき台を返してくれる、最近のコーディングのスタイルのことです。バイブには雰囲気という意味がありますが、人間が雰囲気で伝えた指示も理解できるようになってきたということ。しかも、プログラミングに限らず、文章や分析、音楽、画像、アニメーションなど、いろいろな領域で、人とAIが一緒に作業を進めることが自然になってきています。そうした働き方全般をバイブワーキングと呼びます」

では、AIはどんな分野を得意とするのか。川村さんは「誰がやっても同じアウトプットになる部分」だと述べます。

 

「人事や総務など、誰がやっても結果が変わりにくい定型的業務は、AIやAIエージェントが担うようになると思います。高性能なエージェントを企業ごとに自前で作るのは難しいので、エージェント自体を派遣するような仕組みが普及するかもしれません。同じことはクリエイティブにも起きています。音楽なら『Suno』で意図を伝えるだけで曲を作ることができますし、アニメーションでも『Sora』のようなモデルが作画を一瞬で生成してくれる。工場や店舗など、物理的な作業はロボット技術の進展を待つ必要がありますが、ソフトウエアで完結する仕事から順に、どんどんAIに置き換わっていくはずです」

 

AIの活用が進むなかで重要になるのが、仕事をどのように因数分解するかという視点です。

 

「どの業務にも、AIに任せられる部分と、人の判断が必要な部分があります。文章なら、構想や意図の設計は人が担い、体裁の調整や校正のようにパターン化しやすい部分はAIに任せる、といった整理が必要です」

 

こうした変化は、すでに雇用や働き方にも影響を与えているようです。

 

「米マイクロソフトが9,000人のエンジニアをレイオフしましたが、AIで十分な領域と、人が判断すべき領域がはっきり分かれつつある象徴的な出来事だと思います。日本では同じようには解雇ができないため、“仕事はAIでできるけれど人は残る”というねじれが生まれるでしょう。一方で、AIを使いながら少人数で事業を回す人も出てくると推測します。ライターを例に取っても、AIで効率化する人と、手作業の価値を全面に出す人に分かれるように、働き方は二極化していくと思います」

 

では、バイブワーキングが普及した未来で、人が担う役割とは何でしょうか。川村さんは大きく3つあると語ります。

 

「1つ目は、AIが提示する複数の案の中からいいものを選ぶ力です。人間はケーキを食べておいしいかどうかが直感的にわかりますよね。これは生物として生きるなかで身につけてきた感覚で、AIは本質的には持ち得ないものです。どれだけ大量に生成できたとしても、最終的に何が適切で心地よいのかを判断するのは人の役割になります。

 

2つ目は、ニッチで高度な専門性を極めることです。AIの導入は経済合理性に基づき、大規模な需要が見込める領域ほど自動化が進みます。一方、狭く専門的で採算の取りづらい分野では、個々の活動を置き換えるためにAIを開発することは現実的ではありません。結果として、こうしたニッチ領域こそ、人が担う価値が相対的に高まると考えています。

 

3つ目は、推しの対象になることです。将棋ではAIの方が強いのは事実ですが、それでも私たちはAIの将棋そのものが見たいわけではないですよね。藤井聡太さんが指しているから意味がある。やはり応援される対象は、人でなくてはならないと感じます。

 

一方で、AIの急速な発展は、倫理や法制度に新たな課題も生み出しています。

 

「例えば、生成AIで既存キャラクターの映像を作りSNSで公開すると、著作権の問題が生じます。かつては個人が簡単に作れるものではありませんでしたが、今は低コストで誰でも生成できてしまうため、侵害があった場合の損害額の算定が非常に難しくなっています。さらに、AIエージェントが違法行為に繋がる処理をした場合、責任がユーザーにあるのか、開発者にあるのかという点も整備されていません。現行法では対応しきれない事案が増えてきています」

 

こうした課題は、社会全体で向き合う必要があるといいます。

 

「AIの能力そのものより、責任をどこまで分担するのかという倫理的・法的な問題を先に整備することが大事です。進化のスピードが速いため、問題が起きてから法律を作っても追いつきません。まずはAIと社会の関係について共通理解をつくり、そのうえでルール作りを進める必要があります」

もくじ

関連する記事を見る