Colaboratory
Googleの提供する、Webブラウザ上で動作する Pythonの実行環境
ColaboratoryはGoogleアカウントがあればすぐに使える。
インストール不要、環境構築がほぼ不要
チーム内での共有が簡単
GPUを含めて無料で利用が可能
Google Docsのドキュメントのように、Googleドライブに保存しておける
データの読み込みなどで特殊な処理を覚える必要がある
(元となった)Jupyter Notebookと使い勝手が多少異なる
Rubyも動かすことができる(らしい)
https://colab.research.google.com/
ブラウザで90分間、何も操作がないと、インスタンスがリセットされる。
Colab
Google Datalab -- 昔の名前です
Scrapboxページ上のコードの実行
code:hello.py
print('Hello Scrapbox World. ハロー Colaboratory')
Colaboratory側で実行
$ !curl -s https://scrapbox.io/api/code/suto3/Colaboratory/hello.py | python
$ !curl -s https://scrapbox.io/api/code/suto3/Python/env.py | python
CSVファイルの読み込み
Colaboratory側で実行する
code:sb_read_csv.py
import pandas as pd
df= pd.read_csv('https://scrapbox.io/api/table/suto3/Colaboratory/data.csv')
print(df)
table:data
name value
おにぎり 100
カップラーメン 5
唐揚げ 3
バナナ 2
その他 1
JSONファイルの読み込み
Colaboratory側で実行する
code:sb_read_json.py
import pandas as pd
df= pd.read_json('https://scrapbox.io/api/code/suto3/Colaboratory/test.json')
print(df)
code:test.json
{"col1":{"row1":1,"row2":2,"row3":3},"col2":{"row1":"x","row2":"y","row3":"z"}}
WebAPIを使って、Scrapboxページを取得
Colaboratory側で実行する
code:sb_webapi.py
import urllib.request
import json
url = "https://scrapbox.io/api/pages/suto3/Colaboratory"
res = urllib.request.urlopen(url)
data = json.loads(res.read().decode('utf-8'))
json.dumps(data, indent=2, ensure_ascii=False)
kimiyuki - /kimiyuki/Colaboratory
yuiseki - /yuiseki/Google Colaboratory
miyamonz - /miyamonz/Google Colaboratory
nishio - /nishio/Google Colaboratory
pokutuna - /pokutuna/Colaboratory
Matplotlib
qiita.iconColaboratory
zenn.icon Colaboratory
github.icon Colaboratory
Google.icon
Jupyter.icon
https://img.shields.io/badge/Colabo-F9AB00.svg?logo=Google%20Colab&style=for-the-badge&logoColor=white