なぜ「スマホの顔認証」が「精巧な写真」や「寝てる人」ではダメなのか?
なぜ、スマホの顔認証は写真ではダメなのか。
「それは、写真が平面だから〜!」(チコちゃん風に)
当たり前のようで、顔認証には奥が深い。基本的な考え方としては「写真は2D」だからダメなのである。
「カメラで認証」しているように思えるだろうが、実際には「複数のセンサー」を組み合わせて「骨格を3D解析」しているのである。
ちなみに、「隣に寝ている恋人の顔」で認証して着信やメッセージ履歴を盗み見ることもできない。これは最後に説明しよう。
どれほど精巧に作られた写真や動画、さらには本物そっくりに作られた3Dマスクでも、最新のスマホの顔認証を突破することは不可能だ。
その理由は、顔認証システムは「顔の立体的な形状」と「そこに生命があるか」を見抜く、二重のセキュリティによって守られているからだ。
今回は、その中核を担う「3D深度センサー」に焦点を当て、なぜ写真では認証を突破できないのかを詳しく見てみよう。
<顔認証を支えるセンサー>
スマホの顔認証は、複数の高度なセンサーが連携することで成り立っている。それぞれのセンサーとその役割を見ていこう。
-
近接センサー: ユーザーがスマホに顔を近づけると、最初に反応するのがこのセンサーだ。赤外線レーザーを使って物体との距離を測り、「誰かが近づいてきた」という情報を3D深度センサーシステムに送ることで、認証の準備を始める。
-
投光イルミネーター: 顔認証を行う際、暗い場所でも顔を正確に認識できるように、赤外線を顔全体に照射する。これにより、光の条件が悪い環境でも、カメラが顔を捉えられる。
-
ドットプロジェクター: これが顔の立体を測るための中心的な役割を果たす。約3万個の目に見えない赤外線ドットを顔に正確に照射し、顔の凹凸によってドットのパターンがどのように歪むかを読み取るのだ。
-
赤外線カメラ: ドットプロジェクターが照射した赤外線ドットの反射を捉える専用のカメラだ。このカメラが捉えた歪んだドットのパターン情報を、プロセッサーに送る。
-
フロントカメラ: これは通常のカラー画像を撮影するカメラだ。ドットプロジェクターや赤外線カメラが捉えた3D情報に加えて、顔のテクスチャ(肌の色や模様など)を補完する役割を担う。これにより、さらに詳細な認証が可能になる。
これらのセンサーが連携して、顔の骨格を含めた3Dマップを作成し、本人かどうかを判断するのだ。
<3D深度センサーで「立体」を見抜く二つの技術>
繰り返しの説明になる部分もあるが、顔の3Dマップを作成する先進的なセンサーの、代表的な2つの方式を詳しく見てみよう。
1. ストラクチャードライト方式:iPhone Face IDの基本技術
iPhoneのFace IDが採用しているのが、「ストラクチャードライト(Structured Light)」と呼ばれる3D深度センサー技術だ。
-
ドットプロジェクターによる照射: 規則正しいパターンで赤外線ドットが顔に照射。
-
赤外線カメラによる歪みの読み取り: 顔の凹凸によってドットのパターンが歪む。そしてこの歪みを、専用の赤外線カメラが捉える。
-
3Dマップの作成と照合: 読み取った歪みパターンは、iPhoneの心臓部である「ニューラルエンジン」が瞬時に解析し、顔の形状を正確に再現した3Dマップを作成する。この3Dマップと、あらかじめ登録された本人のデータが照合され、ミリ単位の凹凸情報が一致した場合にのみロックが解除される。
この技術は、写真や動画といった平面的な画像とは根本的に異なる、立体的なデータを使って認証を行うため、いかなる写真も認証を突破することはできない。
2. ToF(Time-of-Flight)方式:もう一つの3Dセンサー技術
3D深度センサーには、先程のストラクチャードライト方式の他に「ToF(Time-of-Flight)」方式も広く利用されている。この方式は、光の速度を利用して距離を測定するものだ。
-
赤外線パルスの発射: センサーから赤外線のパルス(光の短い束)を発射する。
-
反射時間の測定: パルスが物体に反射して戻ってくるまでの時間を、センサーが正確に測定。
-
距離の算出: 時間差を計算することで、センサーから顔までの「距離(Flight)」を算出。
ToF方式は、顔の各点までの距離を正確に測定することで、顔全体の奥行きや立体感を把握しする。最近のAndroidスマホや、iPhoneのProモデルに搭載されている「LiDARスキャナー」もこのToF技術の応用であり、より広範囲の空間を3Dで認識することが可能だ。
この3種類のデータは、iPhoneの場合、AIのように機械学習をするニューラルエンジンを搭載したApple A11バイオニックチップ(iPhone X)、Apple A12バイオニックチップ(iPhone XS/ XS MAX/ XR)へと送られ、顔の3D形状を超高速度で計算して導き出す。
これらの3Dセンサーは、赤外線を利用しているため、部屋が真っ暗でも、逆光でも、安定して正確に顔の立体情報を捉えることがで切るのだ。
なお、3D深度センサーの中でもAndroidスマートフォンの「ToF(Time-of-Flight)」方式のセンサーで世界的に高いシェアを誇るのがソニーだ。、多くのに技術を提供している。
<寝ている人を認証しない、「生体検知(Liveness Detection)」>
3D深度センサーが「立体」を見抜く第一の壁だとすれば、「生命の不在」を見抜くのが「生体検知(Liveness Detection)」だ。
寝てる隙にスマホで認証させようとしても無駄である。
1. 写真やマスクを欺く「パッシブ」な検知
最新の顔認証システムは、ユーザーに何の動作も要求せず、顔の細かな変化や特徴を自動的に検知する。これは「パッシブ方式」と呼ばれ、以下のような情報を読み取る。
-
光の反射の違い: ディスプレイに表示された写真や動画、立体に石膏で作ったものは、生身の顔とは光の反射の仕方が異なる。写真表面の平坦な反射や、ディスプレイ特有の光のちらつき(フリッカー)を読み取ることで、偽物だと判断するのだ。
-
微細な動き: 眼球のわずかな動き、呼吸による胸のわずかな上下動や、皮膚下の血流による色の変化など、生きている人間にしか見られない微細な動きを検知する。
2. 眠っている顔でもダメな理由
「寝ている人の顔」が認証を突破できない理由は、この生体検知機能にある。AppleのFace IDは、ユーザーが画面に「注視」していることを確認する機能を標準で備えている。これは、単に顔の立体情報だけでなく、「目を開けて画面を見ている」というユーザーの意図を判断する仕組みだ。これにより、ユーザーが意図しないうちに、あるいは眠っている間に、他人にスマホのロックを勝手に解除されるという事態を防いでいる。
<顔認証のためのセンサーはスマホのどこに配置されているか>
これらのセンサーは、スマートフォンの画面側上部の切り欠き部分(通称ノッチ)や、パンチホールと呼ばれる部分に集中して配置されている。先ほど紹介した近接センサー、投光イルミネーター、赤外線カメラ、ドットプロジェクター、そしてフロントカメラが密接に連携できるよう、ひとまとまりのシステムとして組み込まれているのだ。
また、環境光センサーは、画面の明るさを自動調整するために使われ、顔認証の際には認証の安定性を保つための補助的な役割を果たしている。このセンサーも通常はノッチやパンチホール内に配置されている。
さらにスピーカー、マイク、メインカメラやSUICAを読み取るセンサーもスマホ上部にあるのだから、その集積度には驚かされる。
これらのセンサーは、以下の複数の国で開発されている。様々な世界情勢により供給されなくなることを防ぐためだ。
- ソニー: 日本
- STマイクロエレクトロニクス: スイス
- Samsung: 韓国
- Himax: 台湾
- Infineon Technologies: ドイツ
- Lumentum: アメリカ
「精巧な写真」ではスマホの顔認証がダメなのは、カメラによる2次元の画像認証ではなく、「3D深度センサー」による立体の認識と、「生体検知」による生命の確認という、多層的なセキュリティへと技術が進化したからだ。
<最近の記事>