目を使わない思考支援システムを考える
音声入力の進歩によって一方的にアウトプットする場合にはまあまあの精度でできるようになっているように思う 目と手を使ってアウトプットした場合に比べて誤変換誤字脱字等は多い
が大筋で記憶を留めておくと言う目的をある程度達成できている
しかし書いたものを見ながら考えると言うフィードバックループを回すのにはまだ問題がある
それはなぜか
Scrapboxに書いたものが読み上げられないからなのではないか
スマートフォンで使うKeicho等のチャットサービスならば目が見えるか見えないかと関係なく画面を見ずに耳とマイクだけで散歩などをしながら使うユースケースが自然に考えられるので視覚的フィードバックを使用しないまま使うことができる機能はある程度の有用性が考えられる
今のKeichoのシステムが音声だけで使うのに不便なのはそれが読み返されないからである
チャットボットの機能以前の問題として散歩しながら耳と音声だけで考えをメモすることができるメモ帳がまず実現できると良い
その場合何が必要か
音声入力をしてその入力した音声がまずは即座にリピートバックされる
間違いを修正するかもしくは言い直すかしてアウトプットしたいものが全てアウトプットされている状態を作り出す
この場合の厄介な問題としては音声認識システム側の問題としてこちらがアウトプットしたいと思っているものがこちらの音声で記載した通りにアウトプットされないことがあることである
例えばこの例で言うならば慶長と言う単語はアルファベットの6文字のKeichoを本に今のでイメージしているがこれは造語だから音声認識システムが認識できるはずがなく年号の軽重で入力されてしまっている
あえて誤変換を残した
テキストで入力する場合以上にもっと表記揺れの吸収機能が必要となるように思う
人間が相手でも特定の言葉が伝わりにくいと言う事はある
音声入力で入力しづらい単語と言うものはコンピューターと言う仮想の人格に対して伝わりにくい言葉的に捉えることもできる
その場合人間はどうするのが自然か
別の概念で言い換えるのが自然だなんだけれども特定の概念を表現する言葉を相手に覚えてほしいことがあると思う
メモ帳の側が単語を覚えてくれると良い
どうすればそれができるだろうか
例えばこのメモの中と言う文脈では特定の単語(例えば慶長)はチャットシステムを指しているんだと言うことをシステムが覚えられれば良い
どうすればそれができるんだろう