新型コロナウイルスの影響で、さまざまな業種や場面において人への依存を下げ、自動的に状況把握や制御をするというように、世界全体が変化しつつあります。
逆に考えるとそうしなければ、再び新型コロナウイルスのようなパンデミックが発生した際に、今回と同じように生産活動が止まり、企業は倒産の危機に直面するかもしれません。
そのような事態を避けるべく、今回はマルチセンシングという目線でお話します。
IoT導入の初期段階においてよく質問されるのは、センシングを行うにあたって「どのセンサを使うべきか?」という質問です。
もちろん、そのセンサを使うことが最適かについては、その目的や利用場所、求める精度などさまざまな要素から選定する必要があります。
しかしながら、多くの場合一つのセンサで済むことは稀です。
例えば、植物の生育を管理し、最適な環境を割り出すには、気温・湿度・照度などを計測する必要があります。
それに加えて、これまではあまりデータとして用いられてこなかった、光の色、紫外線量、あたる風の強さ、二酸化炭素濃度など、さまざまな要素をコントロールすることで、これまでになかったような短期で植物を生育できる可能性があります。
より多くの要素を緻密にコントロールすることによって大きな成果に結びつく可能性があるため、今後はなるべく多くのセンサを使うことが必要になるでしょう。
ただ、全く結果に影響しない要素をセンシングしても仕方がないので、最初はそれぞれの要素が結果にどう影響しているのかを検証する必要があります。
要するに、どのセンサを使うかを考えるだけではなく、いろいろな比較実験を通して検証して最適なセンサを複数割り出すという作業が必要になるということです。
これまでは、センシングデータといえば、気温といったその時点において一つの数値で表現できるような単純な一次元情報が多く利用されてきました。
しかしながら、最近では映像、音といった情報を、カメラやマイクというセンサを通じて膨大で複雑なデータを分析する「パターン認識」を活用する事例が増えています。
この背景には、なんといっても人工知能の進化が大きく影響しています。
具体的には、畳み込みニューラルネットワークといった手法などが登場し、ディープラーニングが実現したことによって、画像といった膨大なデータ群から求める特徴を発見することが出来るようになりました。
これによって、例えばコンクリートの亀裂などを画像から発見できるようになりました。
その結果として、今までは人間が目でチェックしていた劣化検査がカメラによって簡単に短時間で可能になります。
このように、単純に数値の大小によって結果が判別できない場合でも、画像や音によるセンシングによってこれまではできなかった分析が可能になり、人間の能力への依存を減らすことも可能となってきたのです。
そのような経緯もあり、カメラ画像と人工知能を使ったセンシングシステムが流行しているわけですが、画像認識も万能ではありません。
画像認識の場合、注意すべき点は環境が変わることで結果が変わる可能性があるということです。
例えば、野外においては昼と夜で映る映像の色味が変化します。このような変化を想定した上で、人工知能を学習させる必要があります。
特定の同じ環境で撮影した画像ばかりを人工知能に学習させた場合は、他の環境の映像を分析させた場合、分析結果の精度が落ちるという可能性があります。
そこで、学習データには、なるべくさまざまな環境で撮影した画像を用います。
つまり、画像認識における学習においては、学習データとして対象物が綺麗に映っているものを揃えるよりも、実際に予測させるようなさまざまな画像を用いる方が良いということです。
それでも、画像認識の精度が十分ではない場合は、併せて音声認識を行います。
実際にトンネルの亀裂検査においては、画像と音の両方をセンシングし、人工知能に予測させている事例があります。
また、場合によっては通常のカメラに映る可視光ではなく、赤外線やマイクロ波の反射によって人間には見えないものを検知する方法もあります。
このように、カメラによるセンシングにおいては、単純に可視光の認識が良いと決めつけるのではなく、複数の方法を比較検証することで最適解が見つかるという計画の元で行うことで、結果的に小さなコストで大きな結果を得られるのだと認識することが重要だと思います。