Forkwell Library#55質疑
感想: いくつか実際には回答したのにドロップされているものがあるねnishio.icon
運営からSlideの質問リストももらって未回答のものに回答しようとして気づいた
claude.icon
Q: アウトプットする際、LTするわけじゃないのにどう表現すればいいか気になってしまい、本当や背景を気にして時間を溶かしてしまいます。アウトプット内容の見た目の部分において意識されていることがございましたらお聞かせください。
A: スライド作成ツールにこだわらず、マークダウンなどのシンプルな方法でアウトプットすることをおすすめします。内容に集中することが大切で、背景などはそれほど重要ではありません。リンクを活かせる形式の方が、後から活用しやすいアウトプットになります。
Q: LLMを使いこなすエンジニアの知的生産術の執筆予定はありますか。
A: 現在Scrapbox上で執筆を進めています。ただし、LLMの発展を踏まえると、書籍という形式が最適とは限らないと考えています。LLMが読んで答えられるシステムを作ることの方が、知的生産物の価値を高められるかもしれません。
(補足) 西尾さんは「執筆」の定義について言及しています。書いていくことを執筆と捉えるならば、現在Scrapbox上で執筆を進めているとのことです。一方で、紙の本を出版する予定があるかについては言及していませんが、LLMの発展を考慮すると、書籍という形式の知的生産物よりも、LLMが読んで答えられるシステムを作る方が価値が高いのではないかと考えているようです。
Q: 仕事をしている最中に得た知識をアウトプットできる状態にするためにしていることや意識していることはありますか。
A: 仕事中に得た知識は、まず自分だけが見られる場所に書き留めることが大切です。それを公開するかどうかは別の話です。書いてデジタルデータとして蓄積することで、後から関連するトピックを調べた時に、過去の知見が検索でヒットして再利用できるようになります。
(補足) 西尾さんは「アウトプット」の定義として、自分だけが見られる場所に書き留めることも含めています。つまり、最初から公開することを前提とするのではなく、まずは自分の中で知識を蓄積し、整理することが大切だと考えているようです。そうすることで、後から関連する事柄を調べる際に、過去の知見が検索でヒットし、再利用できるというメリットがあると述べています。
(追記) この辺の話はtokorotenの「抽象化能力が高まるとNDAを回避できる」と関連しているnishio.icon
Q: 個人で使うLLMサービスはいくつかありますが複数利用されていますか。複数利用している場合はどのように使い分けされていますか。
A: 複数のLLMサービスを使い分けています。例えば、Anthropic社のClaudeは長い文脈の理解に優れているので、論文要約など長文の処理に使ってます。一方、OpenAIのGPT-4はカスタマイズ性が高いため、明確なタスクがある場合にシステムプロンプトを工夫して活用します。ただし、どのサービスが何に向いているかは日々変化しているので、実際に色々試して自分で見極める必要があります。
Q: Scrapboxなどにまとめた情報を見直す機会がないと、リンクの機能が活かせなかったり、知識の幅や繋がりが広がらない、インプットした情報を忘れてしまうと感じています。定期的に見直す機会は設けているのでしょうか。
A: 1ヶ月に1回のように機械的に見直すのではなく、今自分が興味を持っているトピックに関連する過去の記録を探すことが大切だと思います。Scrapboxにたくさんのリンクがあれば、新しい記事を書く際に関連する過去の記事が浮かび上がってくるので、自然と見直す機会になります。Scrapboxを使っていない場合でも今考えていることに関して過去に関連したことを書いていないか検索するなど、使っているシステムの機能をうまく活用することがポイントです。
Q: 10年後、急速に進化したLLMとの知的生産術はどうなっていると思いますか。
A: 正直10年後のことは予測が難しいです。LLMが人間の仕事を代替する領域が増えると予想しています。しかし同時に、AIにはできないこと、つまりLLMでは代替できない領域にも注目し、そちらの能力を伸ばす必要があります。大切なのは自分の周りの変化をよく観察して、自分が良いと思う方向に動き続けることです。抽象的な未来予測に振り回されるのではなく、目の前のタスクに集中することが重要だと考えています。
(補足) 目の前の具体的なタスクに集中し、着実に進んでいくことが大切だというメッセージが込められているように感じられます。
以上が、講演での主要な質疑応答の詳細になります。西尾さんの回答からは、LLMを単なるツールとしてではなく、知的生産の在り方そのものを変える存在として捉え、実践を通じて新しい方法論を模索していこうとする姿勢が感じられました。同時に、変化の激しい時代だからこそ、自分の実感を大切にしながら、目の前のことに真摯に取り組むことの大切さも強調されていたように思います。
---
Q: 先輩から後輩へのさりげないアウトプットのコツ
A: 文脈(=コンテキスト)がわからない
自分にとって有益な回答を引き出すのに、どのような文脈を与えると良さそうか、ということを考えるといい。人間に対する会話もLLMに対するプロンプトも同じ
多分「ChatGPTに期待した出力をしてもらうチャレンジ」を繰り返していくと、「適切な文脈を含めて質問するスキル」が上がって人間との会話にも有益なんじゃないかと思う
Q: 教育現場の第一線に立つと LLM をうまく活用できる人と、そうで無い人とで二極化しているように見えます(Google 検索をうまく使える人とそうで無い人がいるのと同じように)なるべく多くの人に LLM を活用して欲しいなという思いがあるのですが、どうすると人はうまく LLM と付き合えるようになるのかが気になっています
nihia.icon
教育現場でLLM(大規模言語モデル)をうまく活用できる人とそうでない人の二極化を防ぎ、多くの人にLLMを効果的に使ってもらうための方法について、Scrapboxの記述を以下にまとめます。
1. ニッチな業務へのチューニングとカスタマイズ
LLMは現時点では万人向けの「キラーアプリ」にはなっていませんが、ニッチな業務にチューニングし、カスタマイズすることで大きな効果を発揮します。専門性の高い分野に適用し、業務を圧倒的に効率化するユースケースに注目することが重要です。
2. 方法論の体系化と共有
LLMを活用した知的生産の方法論を体系化し、実践と事例収集を通じて得られた知見を共有することで、多くの人がLLMを使いこなせるようになります。具体的な手法だけでなく、LLMを活用することで知的生産がどのように変わるのかを理論的に考察し、その方法論を提示することが必要です。
3. 教育と訓練の提供
多様な教育プログラムや訓練を提供することで、LLMの活用能力を育成します。LLMを使った実践的なトレーニングやワークショップを通じて、具体的な使い方や応用方法を学ぶ機会を増やすことが効果的です。
4. 実際の業務への組み込み
LLMを実際の業務に組み込み、その活用方法を具体的に示すことで、多くの人がLLMを使いこなせるようになります。特に、保険文書のレビューや金融の契約書への適用など、具体的な取り組み事例を示すことが効果的です。
5. 知識の拡大再生産と活用
知識を使って時間やお金を得て、そのリソースをさらに知識獲得に投資する戦略を用いることで、持続的な成長が可能になります。この戦略を通じて、LLMを活用する能力を高めることができます。
これらの方法を通じて、LLMの効果的な活用を促進し、教育現場での二極化を防ぐことができます。
nishio.icon
このLLM出力は「低コストに得られる叩き台」である。LLM出力が無加工で最終成果物になる必要はない。
ニッチな業務へのチューニングとカスタマイズを見て、質問文の多くの人に LLM を活用して欲しい どうすると人はうまく LLM と付き合えるようになるのかという問いがそもそもユースケースを漠然としか認識できていないと気づいた
まずは具体的な「ニッチな業務」で「これに使うと便利」というユースケースを特定し、次に実践と事例収集を通じて得られた知見を共有することが有益、と語った
Q: 開発者視点でのAIエージェントとの向き合い方
A: もちろん「自分が作るもの」と捉えてる
Q: ナレッジグラフのような構造化した情報を機械に任せれば記憶の必要度が薄れることにはならないでしょうか
A:
うん、任せられるなら。
この質問では「ナレッジグラフをどうやって構築するのか」「何をどう機械に任せるのか」が不明瞭
もし実行可能なレベルで具体化できていて、それをやることが有益だと思うなら、実践して検証すればいい
Q: PDFでない本を読んだ場合、その情報をscrapboxに入れるためにどうしてます? 自分で要約を起こす/AIに要約してもらうのは可能ですが、全文でない以上は情報が落ちますよね……?
A:
情報が落ちるのはしたがないでしょう、どんな要約も原文より情報が落ちる
要約とは主観的な価値観によって原文の情報を取捨選択すること
なお前半についてはp.133 脚注26
私は紙の本をどんどん裁断・スキャンして電子化し、OCR して、横断検索可能にしています。覚えるよりも検索できるようにしたほうが効率的なのです。
Q: 理解のために図が欲しくなることが多々ありますが、画像でないなら、dot言語とかがおすすめなんですか?
A:
個人的にはdotは手書きと比べてアウトプットの時間効率が悪いと思う
dotの「テキスト形式データなので今のAIが読めること」のメリットと、「AIが手書き画像も問題なく読めるようになるまでのリードタイム」を踏まえてどっちを選ぶかの判断だね
Q: 考えやアイデアを外に出しておいて利用可能にするメリットもわかるのですが、秘密にしておきたいアイデアなどはどうなさっているのでしょうか。
A:
「脳の外に出す」と「世界に出す」の混同だと思う
秘密のものは「脳の外に出す」をして、「世界に出す」をしてない、具体的にはprivateのScrapboxプロジェクトにある
これをAIに読ませて…ということをやりたいが実装が間に合ってない、技術的には特に問題はない
公開できるものを先にやって公開した方が社会的価値生産が発生するので優先して行う関係上、プライベートの開発が遅れ気味
Q: ローカルLLMはお使いですか?
A:
使ってない
使って知見を溜めることは有益だと思う
「やったら有益なこと」がたくさんあるので優先度をつけて取り組んでる結果、ローカルLLMは僕の中での優先度が高くないので後回しになってる
---
Twitterから
u_g_cccc どうせ要約されるしって前提で文献(広い意味で)は書かれるようになって文量として短くなってゆくのでは そうなると知識や情報を体系化するということの意義/意味が根本から変わるのでは yappy0625 都合のいい情報しか拾わなくなったりエコーチェンバーが加速したりしそうな気もするんだよなぁ。個人のためにカスタマイズしてるとも言えるかもだけど、忖度してくれる都合のいいAIに育ててるだけになっていないかどうか。