【雑想】AIにはできないこと、人間に残されたものとは #chatGPT


昨今のIT系ニュースはほとんど「chatGPT」がすごい、という論調ばかりだ。
この流れの中、画像生成AIをAdobeがぶっこんできた。

画像生成AIサービスAdobe Fireflyが登場 著作権問題をクリアに | PhotoshopVIPより引用:

Dalle-EやMidjourneyなど画像生成AIツールの多くが、どのようなデータを学習、訓練しているのか、詳細を明かしておらず、著作権もグレーなのが現状です。

しかしAdobe Fireflyの学習には、著作権が切れているか、トレーニング用にライセンス契約しているか、数億を超えるAdobe Stockライブラリのコンテンツを利用することで、アーティストやブランドとの著作権、IP(知的財産)トラブルをできるだけ解決しています。

諸々の機能を見る限り、アマとプロのテクニック差をどんどん小さくしている気がする。
テクノロジーで置換可能な部分が置き換えきった先に、人間には何が残っているのか。
「センス」だろうか?
いや、私はセンスもAIに凌駕されていくのではないかと考えている。

センス=知識量

purple and pink plasma ball
Photo by Hal Gatewood on Unsplash

センスはほぼ「知識量」だと考えている。
「知識」そのもの、というよりは「知識」の「量」だ。

例えば、何らかのバナーやチラシなどを「デザイン」するとしよう。
入れるべき内容が記された原稿はあるとして、それらをどのようにレイアウトし、どういう色合いで、どう見せるか、といったことを考えるとき。
こういう内容で、こういうオーダーがあって、制約条件はロゴの色を使う、など、さまざまな条件を考える。

その時、頭に浮かんだイメージは、あなたがそれまで見てきた、インプットしてきた有象無象の「デザイン」が元になっているはずだ。
「こういうときは、こういう風にしたほうがいいよな」
という判断は、多くのインプットがあって初めてできるもの。

もし、どうしたらいいのか迷う、ということがあったら、それはインプットが足りていない、ということだと思う。
もっともっともっと多くのインプットがあれば、こういうときは、こうする、という判断ができる。
つまり、知識の「インプット量」が大事になってくる。

すると、人間とAIでインプット量で勝負すると、人間に勝ち目は無い。
だから、センス(=知識のインプット量)はAIに凌駕されてしまう、と思うのだ。
じゃあ人間はなにをしたらいいのか?

人間は何をしたらいいのか?

person standing on body of water
Photo by Sylas Boesten on Unsplash

人間に残された領域、残るは「決断」だろう、と思う。
「決断」、決めることだ。

AIは膨大なインプット量からありとあらゆるアウトプットを行う。
リロードすれば無限にバリエーションを吐き出してくる。
こういうときは、こういう感じだよね。
というものをAIが提示してくる。

人間が最後に行うのは、「よし、これでいこう」と決めることだ。
「判断」と「決断」は同じじゃないか、と思われているだろうか?
同じではないのだ。

「判断」はAIでもできるが、「決断」は人間にしかできない。
こういうときは、こういう風にしたほうがいいね、という「判断」と、AIが出してきた無数のバリエーションの中から「これでいこう」と「決断」することは、まったく別なのだ。

ビジネスは決断の連続である。
デザインもビジネスの上に成り立っている以上、最後には誰かが決断する必要がある。
ビジネスの世界は、正解があるように見えて、実は絶対的な正解がない世界。
「それらしい判断」がいくつもあったとき、そこからどうやって進む道を「判断」できるだろうか?

いいえ、「判断」するのではなく、「決断」するのだ。
決めるのだ。
決めて、次に進むのだ。

「判断」は多くのインプット量を元に、ある程度の傾向をはじき出すことで論理的に導き出すことが可能だ。
だが、「決断」は論理を超えた、責任とか、覚個のような要素が必要になるだろう。
「判断」と「決断」の、決定的に違う点は何だろうか?

それは「意思」の介在ではないか。
「判断」には意思が必要ない。
だが、「決断」には意思が伴う。

「意志あるところに道は開ける Where there is a will, there is a way.」
と言ったのは、アメリカ合衆国第16代大統領エイプラハム・リンカーン。

AIがいくつも提示してきたデザインを取り込んで、お客様にお見せするとき、
AIがこういうのを出してきたので、とは言えないだろう。
これこれこういう理由で、こう考えて、こういうデザインにしました、と、こちら側の意思を伝えないと、お客様にも納得していただけない。

意志ある決断をすることで、ビジネスは前に進む。
では、「このデザインで行こう」という決断には、「意思」さえあればよいのだろうか?
否。意思を伝えるための「決断」には、ここにも大量のインプット量が必要だ。

いくらAlが膨大な量のインプットを導き出したとしても、その妥当性を図ったうえで決断するには、人間にも知識量が必要なのだ。
なあんだ、結局人間も勉強しないといけないのか、と思うかもしれない。
だが、それこそが、人間がやるべき「仕事」なのだと考えたい。

うまく使うには「言語化」が重要

black alphabetical wall decor
Photo by Fabio Santaniello Bruun on Unsplash

今のところ、chatGPT系のAIツールを使っていくにあたって、共通するスキルは「言語化」力だろうか。
画像イメージにしろ、何らかの作業にしろ、AIに何かをさせるには「命令」が必要だ。
「命令」とは、言葉によって示されるものだ。

人間の頭の中も同じようなものだろう。
頭の中のモヤモヤしたものを、モヤモヤしたまま絵にしたり、作業として行うことは難しい。
できなくはないのかもしれないが、効率は良くないだろう。

頭の中のモヤモヤしたものを、いったん言葉にすることで整理されたり、はっきりと自覚できたりすることは、よくある。
複雑で難しい問題も、少しずつ言語化しつつ小分けにすることで、解決の糸口が見つかることもある。

こうした「言語化」する力には「語彙」が必要だ。
ボキャブラリーが豊かなほど、さまざまな「言い換え」ができるようになり、より豊かな表現ができることで、さらに思考が飛躍することがある。

語彙力を高めるにはどうしたらいいのだろうか。
それはもう、ありきたりではあるが、本をたくさん読むことに尽きる。
語彙を増やすには、より多くの語彙に触れることでしか、得ることは出来ないだろう。

人間は思考するとき、言葉で考える。
だから言葉が貧困だと、考えが浅はかになる。
より豊かな語彙量を持つことで、深く考えることができるようになる。

AIを便利なツールとして使うことには何ら問題は無い。
ただ、AIからの出力結果をそのまま鵜呑みにしていては本末転倒というか、主従関係が逆転してしまう。
人間は、AIから出てきた結果をきちんと精査できるだけの「言葉」を持っておかないといけないと思うのだ。


コメントを残す

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください