LLMなら言葉をインタフェースにしてあらゆるメディアにアクセスできる
public.icon
言語をAPIに持つすべてのもの(人間、コンピュータ、区役所、猫、音楽、数学…)がChatGPTやBingプロメテウスによってアクティベートされたのになぜみんなこんなに落ち着いてられるのか… アクティベートされる、ってのはBingプロメテウス君がアクティブに言語を習得するので自然言語ですべてのツールが操作可能になるって意味。例えばAPIの使用例を与えるとその場で学んでくれる。「部屋の電気をつけて」という命令は自然言語→hueのAPI→電圧みたいな翻訳が必要でその間を頑張って接続してたんだけど、これがon-the-flyで接続される。つまり信号が伝わるようにしておけばAPIやインタフェースの接続は必要なく、入力と出力のパターンをプロメテウス君にあげてその場でAPI設計して貰えば良い。人間to人間のインタフェースも例外ではなく二者間の最適な言語をon-the-flyで構築可能(人間が習得できるかは別) text2musicは音楽しか出せないけどLLMなら言葉をインタフェースにしてあらゆるメディアにアクセスできる。言語自体もその対象だし、音楽、数学、絵画、ファッションなど語彙と文法が定義可能な対象なら何でもアップデートできる。