Scrapbox
これは、scrapbox用に titleとurlがセットになったtextを取り出してるところ。
以下のbookmarklet
javascript: prompt("Title and URL:", "["+document.title+" "+document.location.href.replace(/[?&]utm_.*/,'')+"]");void(0)
これでclipboardにcopyをして、scrapbox上に貼り付けてる。
https://gyazo.com/20aece82807648cd6135583c60d64bcf
この Scrapbox, いろいろな魅力があるのだろうけど、できるだけ言語化していきたい。
2ホップリンクまでを表示する。
/daiiz/Scrapboxの2ホップリンク
これは、いろんなUIでも参考にできそうな。ネットワーク図で、クラスター表示のイメージに似てるかも。
保存ボタンをつけない
速い( webSocket の利用) , 軽い
dev.to の入力画面もよいが、、
コミュニティ戦略
gyazoとの連携
数式が書ける
code, table
API
APIの書式 - Scrapbox研究会
scrapbox apiでcode共有 - dai-yamamoto
参考
/shokai/Scrapboxの哲学
/nishio/「西尾泰和のScrapbox」って何?
本
Scrapbox情報整理術 | 倉下 忠憲 |本 | 通販 | Amazon
https://gyazo.com/989b73cfb4b81cb45aa74fe6b8841914
Scrapboxの活用
テキスト情報の整理
kimiyuki/myscrapbox: scrapboxに書いた内容を再利用する何か
まだ途中だけど、コードを整理したい。
目標としては、自分の文章のここを整理したら良い、みたいなことが分かるような情報表示を
ElasticSearchなどで表示できれば....
書いたことの振り返り
scrapboxは、キーワードのリンクによって、過去のメモが上手く発掘できて、これで偉大。
時々、時系列で振り返りしたいことはある。
その場合は、streamを使う。
統計
毎日、view数を Google Apps Script で取得して、BigQueryに上げてる。 ビュー数をRedashでみたもの。
権限の設定で、このデータセットは公開してる。
creating-a-public-dataset-or-split-storage-costs-and-compute-costs-across-two
code: bq.sql
SELECT * FROM abc-analytics.scrapbox.dailylog_20190318 LIMIT 1000
これで、誰でも?データは引けると思う。(queryに対する課金はそのユーザーに行く)
https://gyazo.com/64bbe0710546b5c1c6b2ef134d8a4b86
統計検定を頑張ったころ、6月前半が思い出される。 途中、集計がうごかなくなってる。
データ自体は、その日までの view合計数なので。 scrapboxの記事を、views(pv数?)順に見る。
code:sql
with a as (
SELECT date, sum(views) as views FROM abc-analytics.scrapbox.dailylog_20180*
group by date order by date
)
select
date,
case when (date_diff(date, (lag(date) over(order by date)), DAY)) = 1 then
views - lag(views) over(order by date) else 0 end as views
from a
order by date