― 私たちが、AIを安全に使うために考えていること ―
AIは、
便利さや効率を高める技術として
語られることが多くなりました。
しかし、私たちは
安全に関わる分野において、
AIはまず「慎重に語られるべき技術」
だと考えています。
技術は、目的を間違えると危険になる
AIは強力です。
だからこそ、
「何のために使うのか」を誤ると、
社会に不安や分断を生みます。
- 判断を機械に任せすぎていないか
- 責任の所在が曖昧になっていないか
- 監視する技術になっていないか
私たちは、
技術そのものよりも
技術の使い方にこそ、
企業の姿勢が現れると考えています。
私たちがAIを使う理由
私たちがAIを使う理由は、
人を置き換えるためではありません。
夜間、死角、悪天候、疲労。
どれほど注意していても、
人の感覚には限界があります。
AIはその限界を補い、
見落とされがちな危険を
早く知らせるために使われるべき存在です。
AIは判断する存在ではなく、
判断を支える存在である。
これが、私たちの基本的な立場です。
判断と責任は、人の側に残す
私たちのAIは、
- 危険の兆候を検知する
- 状況を可視化する
- 注意を促す
ことは行いますが、
最終判断を行うことはありません。
それは技術的な制約ではなく、
設計上の意思です。
判断を完全に自動化した瞬間、
責任の所在は曖昧になります。
私たちは、
事故が起きたときに
「AIが判断したから仕方ない」
という言葉が使われる社会を
望んでいません。
記録ではなく、予防のためのAI
多くの技術は、
事故が起きたあとに
事実を記録します。
それも必要な役割です。
しかし、私たちが重視しているのは
事故が起きる前の数秒です。
- 動きの変化
- 接近の兆候
- 危険につながる前兆
AIは、
人が気づくより早く
それらを捉えることができます。
私たちは、
説明のためのAIではなく、
事故を起こさせないためのAI
を目指しています。
データを集めすぎないという選択
AIは、
大量のデータを集めるほど
賢くなると考えられてきました。
しかし、
車載映像や街中の映像は、
人々の生活と地続きの情報です。
私たちは、
安全の名のもとに
無制限に集めるべきではない
と考えています。
そのため、
フェデレーテッドAI(分散学習)という
考え方を採用しています。
必要な判断は端末側で行い、
生の映像や個人情報は
外に出さない。
集めないという設計そのものが、
安心につながると考えています。
自動化しないことは、後退ではない
すべてを自動化することが、
進歩だとは限りません。
特に安全分野では、
- 想定外
- 例外
- 現場特有の判断
が必ず存在します。
人が判断する余地を残すことは、
技術の敗北ではなく、
社会に技術を残すための条件
だと私たちは考えています。
AIは、目立たない方がいい
私たちが理想とするAIは、
使っていることを
意識されない存在です。
- 監視されていると感じさせない
- 管理されていると思わせない
- それでも事故が減る
そんな技術であるべきだと
考えています。
技術には、思想が必要だと考えています
どれだけ高性能なAIでも、
思想がなければ
ただの装置です。
私たちは、
- 見えなかったを減らす
- 仕方ないを減らす
- 起きてから後悔する事故を減らす
ために、技術を使います。
見えるなら、守る
防げるなら、防ぐ
技術が可能にしたことには、
責任が伴います。
見えるなら、守る。
防げるなら、防ぐ。
それが、
私たちが考える
技術とAIのあるべき姿です。
