ChatGPT
松尾先生のスライドがわかりやすい
事例
検索が不要になるかもとのことで騒がれているが、検索に限らずあらゆるUIにAIが埋め込まれていくというのがすごい勢いで進みそう。 「コンピュータがもっと人間のことを理解して話してくれたら楽なのに」というのは学生のときからずっと考えていたコンセプトだが、こんなに急にそれっぽいものが出てくるとは。
せっかくなので自分も何か作りたい。
今後はAIに操作権限を移譲して、人間は雑な指示を出せばそれっぽく仕事してくれるというシステムが増えそう。
AlexaやらGoogle Assistantやらは結局のところ「人間が自然言語っぽく話しかけるが、想定されたコンピュータへの指示しか理解してくれない」という感じだったが、本当に自然言語で色々やってくれるようになりそう。 2023/03/02 API が公開されたらしい。
QuickStartで簡単にローカルのアプリからAPIが試せる
frontend全然わからないけどNext.js便利
ユーザーの意図(音声入力?)をサーバーで受け取る
→AIエージェントに次のAPIの呼び出し方を決めさせる(自然言語から適切なAPIとその引数を決める)
→API呼び出し
で色々遊べそう
iPhoneから音声入力
→Lambdaに送る
→Lambdaからコンテキストと一緒に入力を送る
→出力をそのままAPIに流す
NotionAPIでレコードを追加するというのをやってみたい
時系列
すごい開発スピード