松本亜砂子 2016年5月22日 ITヘルスケア学会 一般演題

2016 年 5 月 22 日(日) 13:30~15:00 第 1 会場
一般演題 1:障害者・在宅支援
「発話困難者または発話困難時のコミュニケーション方法の確立に向けた文字盤の開発」
Practical design of communication board for speech disorders in emergency
松本 亜砂子, 高橋 宜盟
一般社団法人 結ライフコミュニケーション研究所
Yui Life Communication Laboratory

スライド

クリックするとスライドのPDFファイルが開きます。

発表内容

私は、昨年から、結ライフコミュニケーション研究所に所属することになった、松本亜砂子と申します。どうぞよろしくお願いいたします。
今日の私が、ITヘルスケア学会で発表する機会をいただいたのは、今年の春、理事の高橋から「ここで亜砂子さんが考案したコミュニケーションボードのことを発表してみないか?」と言われたからです。
初めてITヘルスケア学会のホームページを見た時、ICTという文字があったので、私は過去を思い出してびっくりしました。
1997年頃の新聞は「ITが企業や生活に入っていくことで、人と人とのコミュニケーション量が減っていくだろう」と、懸念していました。
でも、当時の私は「私たちにとってパソコンはコミュニケーション量を増やしてくれる魔法の箱。どうせ言うならITと言うより、ICTじゃないの?」と思っていたのです。中学一年の途中までしか、まともに教育を受けられなかった私がです。
そんな私でも、ICTを使い始めたことで手軽に知識や情報を得られるようになり、いろいろな人に出会い、いろいろな体験が出来ましたから、ICTって本当に使いようですね!

現在の欧米では、ITよりもICTと呼ばれることがほとんどらしいのですが、日本では経済産業省はIT、総務省ではICTと使うらしいのです。この場で言うのはなんですが、早く日本でも統一して、是非ICTと呼んでいただきたいものです。

35年前に、眼球運動とまばたき以外のすべての随意運動が障害されても、感覚は正常で意識は清明で、単に意思表示の方法が欠如している状態、つまり、ロックドインシンドロームになった私は、このような下敷きを文字盤としてコミュニケーションを取っていましたが、受傷一年後にこのようにヘッドスティックという自助具を使うことで「電動かなタイプライター」の入力が出来るようになり、ワープロでこのような文字盤を作ったり、パソコンを使用するようになってからは、いろいろな経験をして現在に至っています。
つまり、車椅子乗車中は文字入力で、就寝後などヘッドスティックが使えない時は、見える文字盤や見えない文字盤でのコミュニケーションをして来た訳です。
1980年代は文字盤の情報がありませんでしたから、聞き慣れた人でないと聞き取れないくらいにしか喋れない人は、聞き取ってもらえるまで何度も言い直し、最後の手段で、全く喋れない人と同様に、それぞれの文字盤でコミュニケーションを取っていたと思います。でも、この時間をロスと思う人とはコミュニケーションが取れませんでした。

そんな中、1985年に携帯用合成音声機が発売されます。これは、入力した文字が画面に残り、よく使う言葉は登録でき、音声も出ました。
一般に発売されていた電化製品からは、結構聞き取りやすい音声が出ていたのに、本当に音声を必要とする人が使用する携帯用合成音声機が抑揚のない声だなんて、納得がいきませんでしたが、これが日本の仕組みなんですね。

文字盤での時短コミュニケーション方法を考えていたところ、3.11が起こりました。
現地の発語障害者のことを思い巡らせていた私は考えました。
日本に住む日本人と外国人が共通の日本語を話すように、喋れない人と喋れる人が共通の文字盤とルールを使えば、初対面であってもコミュニケーションが取れるんじゃないかと。
それで最初の文字盤や、見えない文字盤使用経験と透明文字盤やフリック入力を統合して、透明だけれど表ではない、このようなコミュニケーションボードを作ってみました。これは、聞き手と私が同じ文字を認識出来るように、赤い「あ」の裏には青い「あ」があり、コミュニケーション中の文の区切りやアクセントの違いを、私から知らせられるようにしてあります。

ヘルパーがルールを覚えると「今、なになにをお願いします」という単純なことならば、確かにコミュニケーション時間は短縮されました。でも、他の文型だとあまり短縮されませんでした。問題なのは、日本語は最後まで言わないと、どういうことが言いたいのかが分からないためです。
そこで私がこれからどういう文型を言おうとしているか、ヘルパーが一目で分かるようにするために、ボードの中央に『注意』、『相談』、『質問』、『確認』、『否定』、『最初』、『突然』、『感想』、『過去』、『未来』などの文字を貼ってみました。私はこの中央の文字がなかった時よりは、今の方がコミュニケーションがスムーズになったような気がしています。

実際、障害者の参加者が多い外出先で、コミュニケーションボードを使っていると「早いですね。それはどこで買ったんですか?」と聞かれるので、ヘルパーが「これは売ってはいないんです」と答えると、「それ、すごく良いから早く商品にしてください」と言われます。私もやはりそうかと、早く商品化したいと思っているのですが、日本の仕組みの中ではなかなか話が進みません。
クラウド・ファンディングというのも候補に挙がっていますが、どこでしたら良いのかわからないでいます。

このように私は、自分も含めて、発語障害と身体障害をもつ人のコミュニケーションに掛かる時間を減らす方法を見つけたいと考えています。
このように言うと、コミュニケーションボードは発語障害と身体障害をもつ人だけが使う福祉用具に聞こえるかもしれませんが、そんなことはありません。
今は普通に歩けて喋れている会場の方々も、いまを生きている限り、いつ事故や災害から一時的でも発語が不自由になるやもしれません。
脳梗塞などで倒れて、命をとりとめたとします。
そのような時に、普通の人は動かせる部位をもっと動かせるように、動かない部位を動かせるようにするために、まずはPTから始めたくなります。
でも、まずは文字でコミュニケーションが取れるようにして、孤独感を消去させる方がPTやOT効果が出やすいんです。
赤ちゃんが親からの愛情を感じながら育つ方が将来にいいというのと同じなんです。
言葉が出せなくなってしまっても、まずはコミュニケーションボードの文字で話して心を満たしてください。

では、どのように使えばいいのか。
簡単に言うと、「言いたい文字がどのエリアにあるか」、「どの文字群にあるか」、「どの文字か」と、3ステップを二人三脚で探していくのです。
身体で位置を示せるユーザーは、それぞれ的確に動かせる身体部位を使って、エリアや文字群や文字を示すサインと、「違う」のサインを出すので、聞き手はそれを覚えておく必要があります。
サインに使える部位が一ヶ所しかない人や、サインが分かりにくい人の場合は、聞き手がエリアや文字群や文字を言って、サインがあったところで確定です。最後の文字のところでサインがなければ、中央の文字、母音で確定です。
近年は筋肉の動きがあると音がするものもありますが、ヘルパーが触ってサインを確認する場合は、お互いに同じコミュニケーションボードの面を見て、文字を探してきます。
ちなみに、中央の文字部分を言いたい時は、私の場合はエリアを示す前に声を出すことにしています。

先月末、知人からメールがありました。今年一月に急死してしまった重度脳性麻痺の友人に、亜砂子さんが使っているコミュニケーションボードを紹介したかったです、という内容でした。
その友人は緊張が強くて、視線入力などいろいろなICTコミュニケーション方法を試したけれど、いい操作ツールに出会えず、自分の思いは五十音表で一文字ずつ伝えるしか無かったそうです。
ICTはユーザーに合った操作ツールさえあれば、発語と身体に重度障害を持っていても、円滑にコミュニケーションを取ることが可能となり、それぞれの人生を豊かにすることが出来るものです。

これからの私達は発語障害を持つ人や、一時的に発語できなくなった人のために、スムーズに伝えられるコミュニケーションボード、キーボード、各種スイッチの開発を進めていきたいと思っています。
ご清聴、ありがとうございました。