アクティブ読書用projectを文献ごとに分けるかどうか
しかし、全部一つのprojectに入れてしまってもいいのではないかと思い始めた
複数の文献で言及されている概念がつながる
違う文献、違う本という点はネットワークを切る理由として弱い
そう思う基素.iconnishio.icon
2022-12-21 つなげて正解だったtakker.icon 違う講義で話題にした同じキーワードがつながって、過去の講義で書いたメモが生きる
1年前の講義資料が釣り上げられたりもする
紙でノート取ってたらさすがにここまで想起するのは難しいだろう
1年前予備校で聞いた話題を、そのときとったノートが手元になくてもざっくり引っ張ってこれた
新東名高速道路工事が言及されたほかの講義ノートを引っ張り出したり、今日講演して下さったOBが所属していた研究室と同じ出身のOBが以前講義なさったときのノートを引っ張り出すのはさすがに脳内だけでは無理がある つまり、記憶に残らなかったつながりをScrapboxがバックアップしてくれる、といえばいいだろうか
いい話だcFQ2f7LRuLYP.icon
技術的にもこっちのほうが楽
指定したproject分だけAPIを叩く仕様。というかそれ以外方法がない
せいぜい10projectsくらいが限界だろう。それ以上はserverこわれる
限界
同名ページがあると合体できない
prefixでISBN入れたら絶対被らない基素.icon
まあそこまでしなくても被らないでしょう
このタイトルって自動生成できますか?基素.icon
手動で作ってますtakker.icon
タノシイヨ
こんな感じのテーブルを作って生成しています
なるほど。本ごとに目次データを自分で作ってタイトルを生成しているのか!基素.icon
他にもなにか懸念点はある?
混ぜた場合、後から分離しづらいかも基素.icon
これがあって一つづつ分離して運用していましたtakker.icon
でも混ぜることの何にデメリットを覚えて分離したのかが全く覚えていない……
混ぜるのは簡単だけど分離はそこそこ面倒だと思うのでとりあえず安全側に倒した?基素.icon
混ぜるデメリットが
ドンピシャなページあったtakker.icon
と思ったけど中身スッカラカンだ……
作成日時周辺を調べてみたが、どこにも記述がなかった
ページ名が長くなるのがいやだった?takker.icon
どうまとめるのがいいかな基素.icon
基素.iconの現状
ページタイトル
基本的に001のようになっている
001 目次のように手動で意味を書き足したりしている
任意の文字列のページ
例:[インタフェース]
読みながら概念をまとめているのでどんどんできていく
他のプロジェクトにも同じ概念を説明したページがあることがある
これならいけるかな?
まとめるとき
9784334038458 001
違う書籍で、章番号と見出しとページ番号全てが一致する可能性はまずない
あっと、分離できるようにするためでした。それならタイトルに埋め込むかリンクを貼る必要がある あとから分離したい時
prefixのISBNベースで分離する
リンクにprefixがないページがあったらそれも込みのJSONを作る
課題
ページの切り出しをしたり、複数の書籍にまたがる情報をmergeしたページを作ったりすると、分離するのがまず不可能 分離後の重複ありで関連ページ全部取っちゃうのでいい気がする基素.icon
重複ありで関連ページ全部取っちゃうどの作業のことでしょうか?takker.icon
こう考えました基素.icon
「ISBN A」から切り出したaはISBN Aからlinkされているのでエクスポート範囲に含める
ISBN Aから切り出したbとISBN Bから切り出したcをマージしたdはISBN Aからlinkされているのでエクスポート範囲に含める
なるほど。[ISBN A]が含まれているページだけを抽出するということですねtakker.icon
そもそも分離する需要があるのかどうか疑問takker.icon
「もしかしたら分離したくなるかもしれないから」程度の不確かな理由しかない
まあでもISBN Aという文字列をページ内に常に含めておけば、切り出しと分離可能性の双方を担保することもできるか
複数人でアクティブ読書をする時には分離したくなりそう基素.icon
...と思ったけど、分離は難しいかも基素.icon
完全な分離は難しい
アクティブ読書をすると、複数のページがら切り出しが行われる
そうするとそのページを後から分離するのはn hopも分離しなければいけない
これは結構難しいはず
プライベートのプロジェクトには、余計なものも含まれる
綺麗に切り分けることはできない
割り切った分離ならできる
本の元ページだけ分離する方法
ここまできたら、分離は諦めて再アップロードするのでもいい
元々のファイルを持っていれば、ハッシュが一致してGyazo側が元々あったURLをくれる
欠点:元々のファイルを捨てられなくなる
最悪gyazoのURLの一覧だけ復元できたらいいが、連続でアップするのでUI状に並んでいるからどうにかとってこれそう
本のデータを差し替えたくなったらどうする?
後からどうにでもなるように、ISBNとページ数を書いておくのが先送りできる手な気がしてきたのでそうしよう基素.icon
いや、アップロードするときに連番のgyazoリンクを手に入れることができるのでそれをメモっておけばこれもいらないですね
文献ごとに分けておいて、アクティブ読書のまとめ用Project(結局それは読書ノートか)を用意するとか?meganii.icon
それぞれのアクティブ読書用プロジェクトのページから必要箇所だけ抽出して、External Linkを貼っていけば繋がりは保てそう
アクティブ読書用プロジェクトというより、自分のメインのプロジェクトに書いてしまって良いと思うyosider.icon
読書しながらそのプロジェクトにまとめてます基素.icontakker.icon
各々の著者の考え同士が繋がるよりも、自分の言葉で言い換えた言葉や考えが、それぞれの文献プロジェクトとリンクしていった方が良さそうな気はしているが、アクティブ読書用のProjectが少ないのでなんとも言えないmeganii.icon
わかるyosider.icon
どうせ自分の言葉になるので気にしてないですtakker.icon
勝手に自分で書き換える
書き換えなかったとしても、自分の判断でリンクしているのだから、それなりに自分の考えが入っていると捉えられる
分けるのもいちいち名前を考えないといけなかったりするので、一つにまとめるのも実験してみたいmeganii.icon
アクティブ読書のための場所ではアクティブに読書できればいいyosider.icon
考えを繋げたりするのは結局自分の言葉にする必要がある
アクティブ読書の場所でそこまでやろうとすると、読書のスピード感が落ちそう やりながら読んでるので落ちてる基素.icontakker.icon
自分が理解できるよう、箇条書きに直して文章同士の関係を明確にしたり、同じ概念をリンクにして繰り返されている説明をばっさり切ったりしているtakker.icon
元の文章の面影がなくなっても気にしない
PDFやGyazo OCRから復元できる
確かに基素.icon
説明は別ページを作ってまとめ直していたけど、読みながらバッサリまとめてもいいのかも
ページがScrapboxのページタイトルと1:1に対応しないこともあるから結局まとめが必要になることはある
時々文脈がよくわからなくなることがあり、そういうときに元の画像をあたるりますtakker.icon
たいていそのページから切り抜いた図表があるので、その画像からGyazoで元のGyazoを探す
タイトル名一致か関連画像でだいたい見つかる
これでも見つからなければOCRから検索するか、書籍をGyazoったときの日付に飛んでページを探す
複数の文献を1つのプロジェクトに入れて、出てきた語句やその場で思い浮かんだことをリンクして、簡易に考えの繋がりを見つける補助とするのはありだと思う
アクティブ読書自体を自分のメインのプロジェクトですることはできるのだろうかyosider.icon
自分の言葉じゃないページが多いとモチベーション下がる的な問題が起こる?
bookmark系だとこの空しさが発生しそうだったので分けたtakker.icon
短いのだと自分もこの運用です基素.icon
本でも、1ページごとではなく、章ごとくらいの単位でデカいページ数個にわければ、あんまり汚染されている感は受けないのではないだろうか
これでやっています。章または節(目次のもっとも小さな区分)の名前が被ったら適当に著者名・書名を書いてますerniogi.icon
多変数関数(杉浦)みたいにerniogi.icon
同じ内容の異なる説明が繋がるのが嬉しいので,Projectはひとつでやっていますerniogi.icon
水理学と土質力学とコンクリート工学がバラバラでストレスを感じ始めたのでもう全部合体させたいtakker.icon
間隙や静水圧など、共通して使用される概念が多い
もうした。快適~
みんなはどうしてる?
ページタイトルどんな感じにしてますか?基素.icon
とても長いタイトルの本があった時とか
前にも聞いたかも…
後で統合しておこう基素.icon
した
節番号と節名の組み合わせで被る確率はかなり低いです
これ最初に入れる時は手動なんですかね?基素.icon
↓のテーブルは全部手書きです……takker.icon
ページ名はどうでしょう?基素.icon
「2.1 なんとか 015」というタイトルの「2.1 なんとか」をどう入れているのか気になる
amazonや書籍サイトに目次があるときはそこからとってきてますtakker.icon
ないときは目次を撮影した写真からOCRしたテキストを張り付けて、手作業で整形しています
これがかなり時間かかる
大ざっぱでいい場合は省略可
ページ数にあわせて入力するのは自動化してますか?基素.icon
手作業です……takker.icon
gyazoったページのリストを見ながら、番号を書き加えています
なるほど!基素.icon
masuiさんのスクリプトみたいなものを想像していたけど、ページを読むごとにアップロードしている感じなのかな基素.icon
テーブルとgyazoのリストを指定して、jsonを作っています
gyazoのリストは["https://gyazo.com/xxxx","https://gyazo.com/yyyy",...]という形式のjsonファイル
入っていますtakker.icon
ありがとうございます基素.icon
ただ、scriptでは一部の見出しだけ作って取り込むこともできるので、大変なときは読みたい章のところだけ見出しを作ってjsonを作ることもできますtakker.icon
さすがに手作業で1ページではなかった基素.icon
写真scanしたときは1ページずつ作ってますtakker.icon 類似本や「目次」ページなどは被ってしまうので、末尾に本名を入れます
このようなページはそれほど多くないので、気になりません
ページ番号を入れて重複を回避することもあります
サンプル
子に6章含むことを示していますtakker.icon
今回の場合だと、目次(『システム英単語<5訂版>』)に0から5までの6章分のリンクが入る
https://gyazo.com/795c5dca3531bd12eb468aad33d59fb3
(14と15ページの画像は編集中に削除しました)
なるほど基素.icon
なるほど!参考にします!感謝基素.icon
/icons/good.icontakker.icon