ChatGPT
https://openai.com/blog/chatgpt
https://chat.openai.com/chat
松尾先生のスライドがわかりやすい
https://twitter.com/u_sgy/status/1626868296027865091
https://note.com/akihisa_shiozaki/n/n4c126c27fd3d
事例
https://note.com/iritec/n/n496881202f60
https://zenn.dev/karaage0703/articles/718506a593fef0
StableDiffusion が出たあたりから AI の進化が急激すぎてやばい。
検索が不要になるかもとのことで騒がれているが、検索に限らずあらゆるUIにAIが埋め込まれていくというのがすごい勢いで進みそう。
「コンピュータがもっと人間のことを理解して話してくれたら楽なのに」というのは学生のときからずっと考えていたコンセプトだが、こんなに急にそれっぽいものが出てくるとは。
せっかくなので自分も何か作りたい。
今後はAIに操作権限を移譲して、人間は雑な指示を出せばそれっぽく仕事してくれるというシステムが増えそう。
AlexaやらGoogle Assistantやらは結局のところ「人間が自然言語っぽく話しかけるが、想定されたコンピュータへの指示しか理解してくれない」という感じだったが、本当に自然言語で色々やってくれるようになりそう。
2023/03/02 API が公開されたらしい。
https://platform.openai.com/docs/quickstart/build-your-application
QuickStartで簡単にローカルのアプリからAPIが試せる
frontend全然わからないけどNext.js便利
ユーザーの意図(音声入力?)をサーバーで受け取る
→AIエージェントに次のAPIの呼び出し方を決めさせる(自然言語から適切なAPIとその引数を決める)
→API呼び出し
で色々遊べそう
iPhoneから音声入力
→Lambdaに送る
→Lambdaからコンテキストと一緒に入力を送る
→出力をそのままAPIに流す
NotionAPIでレコードを追加するというのをやってみたい
時系列
2022/11/30 プロトタイプ版ChatGPTが公開
2023/03/01 API公開
2023/03/15 GPT4公開
2023/05/12 ChatGPT Plugins公開
2023/07/07 ChatGPT Code Interpreter公開
2023/07/20 Custom instructions for ChatGPT公開
2023/09/25 GPT-4V公開
2023/11/06 OpenAI DevDay
すごい開発スピード
#LLM