大型語言模型
→LLM
Large language model
大型語言模型
https://www.youtube.com/watch?v=wjZofJX0v4M
3Blue1Brown
LLM Visualization
可視化
2023-10-11 もし明日、上司に「GPT-4を作れ」と言われたら? Stability AIのシニアリサーチサイエンティストが紹介する「LLM構築タイムアタック」 - ログミーTech
2024-03-29 LLMの現在 - Speaker Deck
2024-06-24 翻訳 LLMで1年間開発して学んだこと〜LLMプロダクト開発を成功に導くための実践的ガイド〜
2024-06-27 大規模言語モデル (LLM) の技術と最新動向 - Speaker Deck
2024-07-10 時系列データのための大規模言語モデル
2024-08-30 ソースコードをリポジトリ丸ごとLLMに読んでもらう方法
dottxt-ai/outlines: Structured Text Generation
2025-02-05 Understanding Reasoning LLMs - by Sebastian Raschka, PhD
2025-03-27 Tracing the thoughts of a large language model \ Anthropic
2025-04-11 MIT Tech Review: 大規模言語モデルは内部で何をやっているのか? 覗いて分かった「奇妙な回路」
2025-05-30 生成AIの内部で何が起こっているのか? ―Anthropic、言語モデルの思考をトレースする“circuit tracer”をオープンソースとして公開 | gihyo.jp
@tarareba722: 「英語ができる人間でないと自動翻訳のエラーに気づけないし、そもそものデザインやプログラムがある程度できる人間でないと発注も出力エラーの修正もできないから、AIの普及は能力の平等化でなく格差の拡大を起こす」という話、正直いってこれについては半信半疑だったんですが、
https://x.com/kenn/status/1793907768577139139
2024-05-24
LLMベンダーはあまり細かく指示しなくても期待する動作をしてくれるようにチューニングしてきているが、基本的にはいまでも「複雑なインプット(質問)を組み立てられる人だけが使いこなせる高度なツール」の域を出ていない。
2024-12-04 ChatGPTが登場して2年以上経ったのに「生成AIの活用の仕方がわからない」って人が大多数。 - Togetter トゥギャッター
kujakujira.icon看到一些像是「提示工程冠軍框架」之類的也會有類似感覺
2024-06-17 @the_dataalchemist • 想學習怎麼更好的運用AIGC, 來參考下「Prompt Royale Awards 得主」建議! • Threads
2024-02-01 CO-STAR提示工程冠軍,情境、目標、風格、語氣、受眾、格式 - Bowen Chiu - Medium
還是和行銷用詞常用的「自然語言」有一段距離
不過所謂的パワハラプロンプト倒挺有趣的
では、この出力を60点とします。これを60点とした時に100点とはどのようなものですか? 100点にするために足りないものを列挙した後に、100点の答えを生成してください
2025-02-10 『ChatGPT o1』に必要なコードを書くよう指示→「まぁ一発では動か…動くやん…」→精度は凄いが、的確な言語化や指示を出すスキルが必要という話 - Togetter トゥギャッター
2025-08-27 「推論する生成AI」は事前学習されていない課題を正しく推論することができない(共変量シフトに弱い) - 渋谷駅前で働くデータサイエンティストのブログ
https://www.youtube.com/watch?v=1sKCKo_p75A
ゆるコンピュータ科学ラジオ
2024-06-15
ことラボ
小型語言模型
狀態圖
馬可夫過程
Notion AI業配
有效的使用方式
詢問內容出自書籍的何處
大型語言模型
詞向量
単語ベクトルで遊ぼう
語境詞嵌入
Embeddings are underrated
2024-06-23 【数えるだけ】AIが単語を理解するトリックが巧妙すぎる【大規模言語モデル2】#130 - YouTube
詞向量
https://www.youtube.com/watch?v=l8YCKz15Hn8
向量
複數個數字的組合
內積
純量
方向和長度不是向量的主要概念
經度和緯度不是向量,向量相加後必須仍然在同一個領域內
分佈語義學
類似的詞彙會出現在類似的向量後方
完全相反的向量不代表是反義詞
merkmalsemantik
不再執著於詞義,只思考附近出現的單字
Bitter Lesson
近義詞
語境詞嵌入
Transformer
Generative Pre-trained Transformer
同字異義
杯子是「空」的和天「空」是藍的
看「杯子」或「藍的」
對所有單字做同樣處理也不會有問題
頂多是處理量會變多
類神經網路
混合多層的資訊至向量內,讓意義明確化
黑盒子
2024-06-30 現代のAIは24時間体制の「子守り」が必要? 開発者の泥臭い努力を聞く回【大規模言語モデル3】#131 - YouTube
維基百科的文字量不夠用
日文版的總容量是30GB
Common Crawl
混入品質不佳的文字
AI的敵人就是AI
藍波 憤怒的液化石油氣
會被判定為自然的文章
人類乍看之下也無法辨別
需要加上像是混入奇怪英文單字或大量廣告等規則
語料庫
如果名詞佔了整個文章的九成
或是含有「壯陽藥」的文章
調整頻率為如果出現三次就移除
baby sitting
有學習對應什麼文字應該回答什麼內容
但沒有學習理想的回覆形式
fine-tuning
由人力調整應該如何回答
想要實現某些新的事物時,或許乍看之下不是本質的東西才是本質,而一昧追求本質反而會無法實現新的事物
2024-07-07 【徹底討論】AIは単語の意味を理解しているのか?#132 - YouTube
alignment
讓AI對應人類的價值觀
用詞衝突:相同單字的翻譯對應關係
詞向量的數值差能作為意義差異的說明嗎?
詞向量是「在什麼情況下會出現的單字」
人類也是從周圍的單字推測意思,而不是從字典學習詞彙
人類如何使用就是其意義
「干す」和「乾かす」的差異
LLM和人類一樣
雖然無法說明意義,但是能夠使用
LLM的成功是因為人類的言語化
AI學習語言和人類一樣嗎?
2024-07-14 AIとの恋愛ってあり?専門家の見解は?#133 - YouTube