(旧)GPTsの本質的な価値
GPTsをなぜ作るのか?結論が固まってきたので、考えをまとめる。 結論
暗黙知を形式知として、「近くに固定」できること
これが本質的価値
形式知と暗黙知
これらはよく、氷山をメタファーとして解説される。
https://scrapbox.io/files/6611f65aa7e69b00255b528d.png
暗黙知を言語化すると、形式知になるが、1つ問題がある。
言語化は難しいし、めんどくさいのだ。
そもそも自分の知っている知識や経験、スキルなどをいちいち文章化していることの方が珍しいだろう。
そして、ベテランの知識は失われてしまい、継承者問題や、組織の属人化・サイロ化の問題へとつながってしまう
つまりは、暗黙知をいかに形式知へと変換するかが重要なわけだ。
上図を見ても分かる通り、暗黙知は形式知よりも遥かにボリュームが大きい。
が、暗黙知には無意識の領域を含むので、私たち自身もどれだけの暗黙知を持っているかわからない。 八方塞がりだったわけだ。
LLMが誕生するまでは...
LLMが登場して、できるようになったこと
生成AIにより、これまでの常識が覆された。
つまりは、未開の地だった暗黙知へのアクセスが可能となり テキスト生成によってそれらを簡単に言語化できるようになった。
例えば、こんなことができるだろう。
今度社内で、業務効率化のセミナーをすることになったんだけど、どんなことを伝えたらいいかな?
普段は、〇〇ということをしてて、特にこういうことを意識してるんだけど、自分ではうまく言葉にできなくて...
壁打ちさせてくれないかな?
(壁打ち後)
OKありがと!だいぶ考えていることがクリアになったよ。
では、これらの会話を要点としてまとめたいんだけど、箇所書きでお願いできる?
マニュアル化もしたいから、構造化もしてね。
抽象度を上げて概念化して他のことにも応用したいんだけど、お願いできるかな?
このように、自分が持つ経験やスキルという暗黙知を、生成AIのサポートによって、形式知化できるわけだ。 共同化 (暗黙知 -> 暗黙知、つまりAIとの壁打ち)
表出化 (暗黙知 -> 形式知)
このように、LLMのテキスト生成によって、氷山の下にある暗黙知を、氷山の上へと押し上げることが可能となった。
https://scrapbox.io/files/6611fbb99f7514002447bdbc.png
とはいえ、AIによる暗黙知の形式知化には、2つの弱点がある。
永続性
それぞれ解説する。
一般の生成AIサービスの弱点
永続性がない
つまりは、ユーザーとやり取りした記憶が、新規チャットをひらけばリセットされてしまうということ。
生成AIは超優秀な入社したばかりの新人、と例えられるが、
せっかくコストをかけて教育して成長したのに、他の会社へ転職されてしまうことと似ている。
コストをかけて育てたのであれば、ずっとそばに置いてサポートしてほしいと誰もが考えるだろう。
連結化できない
SECIモデルの連結化とはすなわち、生成AIとのやりとりで氷山の上へと浮き出た形式知を集めて体系化すること。 飲食店を例に出すと、「美味しいつくねの作り方」「接客マニュアル」「ドリンクの作り方」...などのマニュアルを集めることによって、店舗運営を効率化したり、2号店など店舗拡大に繋げることができる。
が、生成AIは基本的に一期一会。
スレッドとスレッドは分離されており、その浮き出た形式知を集結させることができなかった。
その結果...
せっかく氷山の上に浮き出た形式知を、再利用したりうまく活用できなくなり、氷山の下に沈んでしまう。
つまりは、氷山の上に浮き出た形式知を固定させることができないわけだ。
https://scrapbox.io/files/6612111fc2a76100257b9692.png
形式知が固定化されなければ、誰かにその知識を渡すこともできないし、知識が失われて属人化・サイロ化問題などが起きる。
業務においては、自分以外の第三者に業務伝承できなくなってしまう。
GPTsの本質的な価値
GPTsを使えば、知識ファイルを持たせ、外部APIやWeb検索を実行し、コードの実行や画像作成などをさせることできる。
生成AIは優秀な入社したばかりの新人と述べたが、
このGPTsの機能は、明らかに新人レベルを超越している。
つまり、
様々な知識を吸収する (Knowledge機能)
新人がすぐ転職(退職)するのとは異なり、GPTsは一度採用してしまえば、ずっと即戦力として働いてくれる
もはや、中堅~ベテランといってもいいかもしれない。
つまりは、ベテランの暗黙知を形式知化して再現できるようにGPTsに落とし込むことで、そのベテランを自分の社員として一生活用することができる。氷山の上に固定化することができるわけだ。
https://scrapbox.io/files/661226633a740900264529c2.png
また、GPTsの進化に伴い、形式知を固定化する仕組みが備わりつつある。
State機能
詳細は不明だが、State機能は新しい会話の開始時に提供され、ユーザーごとにデータをGPTに与えることができる。
これにより、永続性がないという問題解決につながる可能性がある。(ユーザーごとの状態を保持することができるため)
複数のGPTsを1つのスレッド内で、呼び出すことができるようになった。
そして、呼び出されたGPTsは、それまでの会話の流れやコンテキストを理解して、応答できるようになった。
これが何を意味するか?
複雑なタスクを細分化しそれぞれに専門特化したGPTsを作って呼び出す順番を固定化する。
これにより、複雑な業務を運用代行のように、最初から最後までGPTsにほぼ実行させることができる。
エージェント機能がこれを後押しする。
つまり、SECIモデルの連結化が可能となり、店舗経営を複数のマニュアルを作って効率化するように、自分の業務の効率化をさせることができる。 固定化された形式知を集めて、体系化させることができる。
これにより店舗の2号店を作るかのように、AIに運用代行をさせることができる。
https://scrapbox.io/files/66124cbc1ee12c002316dd30.png
まとめ
つまりは、以下が本質的な価値となる。
形式知を固定化させること
固定化できるため、氷山の上に浮上した形式知が、沈まなくなる。
いつでも私たちは、この形式知へとアクセスできるようになり、活用/再利用できるようになる。
そうなれば、その知識は伝承され、業務においても第三者に委譲できるようになる。
また、固定された形式知は、1度作れば一生使えるため、ストック型に積み重なる性質を持つ。
そしてそれらの形式知を集めて連結化すれば、SECIモデルのプロセスを螺旋状に回し続けることができる。 そして、知的資産を高速に築くことができるようになる
更新情報
近くに追加できるを追加