https://av.watch.impress.co.jp/docs/topic/2060187.html
Music TO GO!
2025年11月05日
AV WatchでFitEarのDECフィルターモデルと中国ブースのレポートを執筆
AV WatchでFitEarのDECフィルターモデルと中国ブースのレポートを執筆しました。どちらも試聴レポートを交えて詳しく書いています。
https://av.watch.impress.co.jp/docs/topic/2060187.html
https://av.watch.impress.co.jp/docs/topic/2060187.html
AV Watchでfinal TONALITEの測定体験記を執筆
AV Watchでfinal TONALITEの測定体験記を執筆しました。トリプルノイキャンの秘密にも迫っています。
https://av.watch.impress.co.jp/docs/review/review/2060103.html

https://av.watch.impress.co.jp/docs/review/review/2060103.html
2025年10月23日
MQAの新たなプロ用ツール「Inspira」と「Endura」の紹介
MQAはいままでQRONO、FOQUS、AIRIAという3つの製品領域に再編されていましたが、新たにプロ用のInspiraとEnduraというプラグインが登場しています。
MQAサイトにホワイトペーパーがありますので、それを元にInspiraとEnduraを紹介します。画像はホワイトペーパーから引用。

Inspira画面
Inspira プラグイン
どこで使うか:録音→オーバーダブ→ミックスの初期段階、録音時に使う
効果: トラックを重ねた際に生じる「マスク」や時間的干渉を初期段階で抑えられる
機能:
Clarity Control : プリリンギングを時間的に後ろへズラすことで、自然な音の到来→残響の順序に近づけられる
Noise Shaping と Dithering : ディザを加えることで量子化の誤差をマスク、低レベル信号の表現力を上げる。ノイズシェイピングでそのディザノイズを聴覚上敏感でない周波数帯へ移動させ、目立たないようにする

Endura画面
Endura プラグイン
どこで使うか:マスター出力に挿入することを前提にした最終処理プラグイン
効果: ミックス全体の時間的なシャープさを調整、トラック専用の最適なディザやノイズ整形が可能となる
機能:
Align と Depth : トラック全体の時間的な整列量(プリリンギングをどの程度後ろへずらすか)、整形の量やノイズシェイピングの強さを調整
Custom Noise Shaper : マスター全体のノイズフロアを解析し、そのノイズシェイパーを自動生成する
実際にInspiraとEnduraを使用したワークフローを例示します。
ポイントはアーティファクト、ポストリングを残す量を意識すること、FOQUS (搭載のADC)を使用している場合は自動連携で overcorrectionを回避する機能が働くことに注意するなどです。
録音時(Inspira)
マイク→ADC の直後に Inspira を挿入し、Clarity Control で過度な前鳴りを軽減。ディザは最小限に設定しておく。これによりオーバーダブしたときのレイヤー分離が良くなる。
ミックス段階(Inspira)
個別の重要なトラック(スネア、クラベス、アコースティック楽器など)に対して、局所的に時間整合を調整。極端にするのではなく微調整するのがコツのよう。
マスタリング(Endura)
マスター出力に Endura を挿入 → Learn モードでノイズフロア解析 → 推奨の Align/Depth を確認 → 聴感で微調整 → 必要なら専用のノイズシェイパーを試し最終書き出し。
特に効果的なのは、打撃音(クラベス、スネア、ピアノのアタック)や、残響が豊かな小編成の録音など、また息遣い、弦の擦れ、アンビエンスの微細成分を失いたくないレコーディングや、古典的なアナログ録音の温かみを目指す制作などです。
MQAサイトにホワイトペーパーがありますので、それを元にInspiraとEnduraを紹介します。画像はホワイトペーパーから引用。
Inspira画面
Inspira プラグイン
どこで使うか:録音→オーバーダブ→ミックスの初期段階、録音時に使う
効果: トラックを重ねた際に生じる「マスク」や時間的干渉を初期段階で抑えられる
機能:
Clarity Control : プリリンギングを時間的に後ろへズラすことで、自然な音の到来→残響の順序に近づけられる
Noise Shaping と Dithering : ディザを加えることで量子化の誤差をマスク、低レベル信号の表現力を上げる。ノイズシェイピングでそのディザノイズを聴覚上敏感でない周波数帯へ移動させ、目立たないようにする
Endura画面
Endura プラグイン
どこで使うか:マスター出力に挿入することを前提にした最終処理プラグイン
効果: ミックス全体の時間的なシャープさを調整、トラック専用の最適なディザやノイズ整形が可能となる
機能:
Align と Depth : トラック全体の時間的な整列量(プリリンギングをどの程度後ろへずらすか)、整形の量やノイズシェイピングの強さを調整
Custom Noise Shaper : マスター全体のノイズフロアを解析し、そのノイズシェイパーを自動生成する
実際にInspiraとEnduraを使用したワークフローを例示します。
ポイントはアーティファクト、ポストリングを残す量を意識すること、FOQUS (搭載のADC)を使用している場合は自動連携で overcorrectionを回避する機能が働くことに注意するなどです。
録音時(Inspira)
マイク→ADC の直後に Inspira を挿入し、Clarity Control で過度な前鳴りを軽減。ディザは最小限に設定しておく。これによりオーバーダブしたときのレイヤー分離が良くなる。
ミックス段階(Inspira)
個別の重要なトラック(スネア、クラベス、アコースティック楽器など)に対して、局所的に時間整合を調整。極端にするのではなく微調整するのがコツのよう。
マスタリング(Endura)
マスター出力に Endura を挿入 → Learn モードでノイズフロア解析 → 推奨の Align/Depth を確認 → 聴感で微調整 → 必要なら専用のノイズシェイパーを試し最終書き出し。
特に効果的なのは、打撃音(クラベス、スネア、ピアノのアタック)や、残響が豊かな小編成の録音など、また息遣い、弦の擦れ、アンビエンスの微細成分を失いたくないレコーディングや、古典的なアナログ録音の温かみを目指す制作などです。
MQAの最新事情とAIRIA(SCL6)の詳しい情報
海外のオーディオメディア「SoundStage!Simplifi」がMQAの最新事情について興味深いレポートを掲載しています。
https://www.soundstagesimplifi.com/index.php/feature-articles/294-mqa-update-october-2025
これはHigh End 2025のLMGブースのデモのレポートで、噂されていたHD Tracks(Chesky)と組んだMQAハイレゾストリーミングについては発表はなかったとのことですが、MQA技術のQrono、Foqus、Airiaについて面白いレポートが載っています。またMQAはさきの3分野で再編されましたが、さらにDAWプラグインのEnduraというのが出来たようです。(補足するともう一つInspiraがあります)
中でも興味深いのは謎に包まれていたAIRIAの詳細が推測できることです。すでにQronoについてはBluesoundのNude Nanoにすでに搭載、FoqusについてはES9823MPROに実装されています。もともとSCL6(MQAir)と呼ばれていたAIRIAについてはわかっていませんでした。
AIRIAは先述したHD TracksでのMQAハイレゾストリーミングにも採用されるコーデックです。特徴はスケーラブル(自動調整可能)であること。
AIRIAのポイントは従来よりもストリーミングの混雑の予測・調整を高精度にできることです。つまり従来のSpotifyなどよりも、ストリーミングの負荷予測が高精度なので、途切れが起きないのでバッファリングによる停止がない、しかも下げる時にレートを落とすだけでなく、レートを上げるときにも迅速に上げられるという点です。従来サービスはレートを下げるときには自動ですが、逆に状況が良くなってレートを上げられるときに上げられない、または上げにくいんだそうです。さらに従来サービスでは精度が甘いので、状況が悪くなったときに急にバッファリングして再生が止まってしまったりするわけです。
つまり従来のストリーミングサービスではそもそもFLACやAACなど従来型コーデックのデータレートを下げるだけなので混雑時に音質低下しやすいのですが、AIRIAはもともと聴覚ベースで動的変化を考慮したコーデックであり、折り畳み技術で効率よく圧縮できるので、レートが下がっても音質低下が少ないと言う点がポイントです。動的に下げるだけではなく上げることができるということと併せて音質の変動が少ないというわけです。
まとめるとAIRIAを搭載したハイレゾストリーミングサービスの他と比べた長所は、バッファリングで停止しないことでスムーズにストリーミングでき、かつ音質の変化が少ないということです。
デモではロスレス48/24の音源を3Mbpsから500kbps、さらに3Mbpsへ戻すという変化では音質変化も停止もなかったとのこと。この条件は家の据え置きオーディオだと妥当ですが、スマホでワイヤレスで使う際にさらにビットレートが下がった時がAIRIAの真価が発揮されるでしょう。
またAIRIAの登場は、従来のハイレゾストリーミングの問題というのが従来コーデックを単にレート低下させてるだけで、ネットワークの動的変化が考慮されていたものではないという問題点を浮き彫りにしています。(AmazonやQobuzはFLAC、Apple MusicはALAC)
レポートによるとLenbrookはRoonやAudirvana、さらにStreamUnlimitedなどにMQA技術を採用した再生エンジンを提供予定だとのこと。(StreamUnlimitedについてはこちらの記事を参照のこと)
これらのことからRoonやAudirvanaにもこのHDTracksのハイレゾストリーミングが実装されて、Qobuzなどのように使用できると考えられます。
HDTracksのハイレゾストリーミングの準備は進んでいるようですが、展開はおそらく2026年以降となると思われます。
またAIRIAの真価は家での据え置きオーディオよりもむしろスマホでハイレゾストリーミングする方が恩恵があると推測できますが、そうした時代になればストリーミングサービスからスマホ間だけではなく、スマホとイヤホン間はどうなんだという話になって、Bluetooth HDTとかXPanが普及してくるのかもしれません。
https://www.soundstagesimplifi.com/index.php/feature-articles/294-mqa-update-october-2025
これはHigh End 2025のLMGブースのデモのレポートで、噂されていたHD Tracks(Chesky)と組んだMQAハイレゾストリーミングについては発表はなかったとのことですが、MQA技術のQrono、Foqus、Airiaについて面白いレポートが載っています。またMQAはさきの3分野で再編されましたが、さらにDAWプラグインのEnduraというのが出来たようです。(補足するともう一つInspiraがあります)
中でも興味深いのは謎に包まれていたAIRIAの詳細が推測できることです。すでにQronoについてはBluesoundのNude Nanoにすでに搭載、FoqusについてはES9823MPROに実装されています。もともとSCL6(MQAir)と呼ばれていたAIRIAについてはわかっていませんでした。
AIRIAは先述したHD TracksでのMQAハイレゾストリーミングにも採用されるコーデックです。特徴はスケーラブル(自動調整可能)であること。
AIRIAのポイントは従来よりもストリーミングの混雑の予測・調整を高精度にできることです。つまり従来のSpotifyなどよりも、ストリーミングの負荷予測が高精度なので、途切れが起きないのでバッファリングによる停止がない、しかも下げる時にレートを落とすだけでなく、レートを上げるときにも迅速に上げられるという点です。従来サービスはレートを下げるときには自動ですが、逆に状況が良くなってレートを上げられるときに上げられない、または上げにくいんだそうです。さらに従来サービスでは精度が甘いので、状況が悪くなったときに急にバッファリングして再生が止まってしまったりするわけです。
つまり従来のストリーミングサービスではそもそもFLACやAACなど従来型コーデックのデータレートを下げるだけなので混雑時に音質低下しやすいのですが、AIRIAはもともと聴覚ベースで動的変化を考慮したコーデックであり、折り畳み技術で効率よく圧縮できるので、レートが下がっても音質低下が少ないと言う点がポイントです。動的に下げるだけではなく上げることができるということと併せて音質の変動が少ないというわけです。
まとめるとAIRIAを搭載したハイレゾストリーミングサービスの他と比べた長所は、バッファリングで停止しないことでスムーズにストリーミングでき、かつ音質の変化が少ないということです。
デモではロスレス48/24の音源を3Mbpsから500kbps、さらに3Mbpsへ戻すという変化では音質変化も停止もなかったとのこと。この条件は家の据え置きオーディオだと妥当ですが、スマホでワイヤレスで使う際にさらにビットレートが下がった時がAIRIAの真価が発揮されるでしょう。
またAIRIAの登場は、従来のハイレゾストリーミングの問題というのが従来コーデックを単にレート低下させてるだけで、ネットワークの動的変化が考慮されていたものではないという問題点を浮き彫りにしています。(AmazonやQobuzはFLAC、Apple MusicはALAC)
レポートによるとLenbrookはRoonやAudirvana、さらにStreamUnlimitedなどにMQA技術を採用した再生エンジンを提供予定だとのこと。(StreamUnlimitedについてはこちらの記事を参照のこと)
これらのことからRoonやAudirvanaにもこのHDTracksのハイレゾストリーミングが実装されて、Qobuzなどのように使用できると考えられます。
HDTracksのハイレゾストリーミングの準備は進んでいるようですが、展開はおそらく2026年以降となると思われます。
またAIRIAの真価は家での据え置きオーディオよりもむしろスマホでハイレゾストリーミングする方が恩恵があると推測できますが、そうした時代になればストリーミングサービスからスマホ間だけではなく、スマホとイヤホン間はどうなんだという話になって、Bluetooth HDTとかXPanが普及してくるのかもしれません。
2025年10月16日
Bluetoothセミナー、ハイレゾ対応のBLE HDT発表
本日開催された2025年度のBluetooth セミナーと記者発表に参加してきました
セミナー会場では万博で日本デビューしたAuriが送信機として使われ、日英同時通訳音声がAuracastでブロードキャストされていました。
(AV Watch記事)

白いのが送信機、手前は受信機の充電ドック
セミナーではAuracastに関するパネルディスカッションを聴講しました。

Auracastで補聴器とイヤホンの同化が進むのではという意見がある一方で、補聴器は高帯域化(音質向上)よりも低遅延化とロバストが重要だが、イヤホンではやはり音質も重要など対立する意見も出ました。こうした相反する要件をまとめるのも標準化規格の難しさではありますね。

セミナー会場でブロードキャストされていたAuracastチャンネル
記者発表はBluetooth SIGの最高マーケティング責任者ケン・コルドラップ氏によって行われました。

Bluetooth SIGは「繋がりの力でより良い世界へ」と題したビジョンを展開。前は単に繋がるだけだったが、なぜ繋がるかを明確にしたということです。
コミニティーのミッションとしては進化、保護、普及があげられ、進化では50のプロジェクトがアクティブ、保護では毎年6万の製品が認証を通り、普及では50億台が出荷されているとのこと。
SIGは20年で4万社が加入して毎年1000社増えているとのこと。日本はメンバー企業では世界第3位の数だそうです。

Bluetoothの最近の機能強化については、デバイスネットワーク(1:1ではなく数千台が入れる)、ESL、Auracast、高精度測距(数メートルから数センチ)などが挙げられます。
注目のこれからの強化という点では、超低遅延HID(ゲーム分野など)、ハイレゾロスレス(これまでベンダー独自だったものを標準化する、他にも空間オーディオやサラウンドでも標準化)、高データスループット(2MBを8MBに、オーディオにも関係する)、高周波数帯対応(2.4G帯を5G帯や6G帯へ)
そしてテクニカルマーケティングエンジニアのゴンユウ・ルー氏によるBluetooth LE HDTデモが行われました。

HDTとはハイデータスループットのことで、うちのブログでは先日レポートした物理層の新しい規格です。それがオーディオにも使われると確認できたわけです。
(HDT PHYの記事)
これはBluetooth LEのデータレートが最大7.5Mbpsに向上するというもので、HDTは来年10月にリリースを予定していてスペックがまだ固まっていないとのこと。
デモでは二つのスマホ間でのロードをかけたデータ転送のデモで、実測で4-5MBといったところです。96/24のデータ量は4.6Mbpsくらいなので、微妙なところもありますがこれはまだ向上の余地はあります。ちなみにHDT PHYではなく、現状の2MB PHYを使うとおそらく1Mbpsちょいくらいだと思うので、現状の4倍程度の速度は出ています。

表示されている値は平均4Mbpsくらいです。
ゴンユウ氏にLC3はハイレゾ搬送できないのでは、と聞いたらコーデックもまた別に決まるとのこと。それはLC3plusかと突っ込むと、メンバー企業からさまざまなインプットをもらってるところなので、違うものになるかもしれないそうです。あくまでSIGではLC3plusはオプションと考えているようですね。
はじめて次世代Bluetoothのハイレゾ伝送の萌芽に触れたことはとても興味深かったと言えます。
セミナー会場では万博で日本デビューしたAuriが送信機として使われ、日英同時通訳音声がAuracastでブロードキャストされていました。
(AV Watch記事)
白いのが送信機、手前は受信機の充電ドック
セミナーではAuracastに関するパネルディスカッションを聴講しました。
Auracastで補聴器とイヤホンの同化が進むのではという意見がある一方で、補聴器は高帯域化(音質向上)よりも低遅延化とロバストが重要だが、イヤホンではやはり音質も重要など対立する意見も出ました。こうした相反する要件をまとめるのも標準化規格の難しさではありますね。
セミナー会場でブロードキャストされていたAuracastチャンネル
記者発表はBluetooth SIGの最高マーケティング責任者ケン・コルドラップ氏によって行われました。
Bluetooth SIGは「繋がりの力でより良い世界へ」と題したビジョンを展開。前は単に繋がるだけだったが、なぜ繋がるかを明確にしたということです。
コミニティーのミッションとしては進化、保護、普及があげられ、進化では50のプロジェクトがアクティブ、保護では毎年6万の製品が認証を通り、普及では50億台が出荷されているとのこと。
SIGは20年で4万社が加入して毎年1000社増えているとのこと。日本はメンバー企業では世界第3位の数だそうです。
Bluetoothの最近の機能強化については、デバイスネットワーク(1:1ではなく数千台が入れる)、ESL、Auracast、高精度測距(数メートルから数センチ)などが挙げられます。
注目のこれからの強化という点では、超低遅延HID(ゲーム分野など)、ハイレゾロスレス(これまでベンダー独自だったものを標準化する、他にも空間オーディオやサラウンドでも標準化)、高データスループット(2MBを8MBに、オーディオにも関係する)、高周波数帯対応(2.4G帯を5G帯や6G帯へ)
そしてテクニカルマーケティングエンジニアのゴンユウ・ルー氏によるBluetooth LE HDTデモが行われました。
HDTとはハイデータスループットのことで、うちのブログでは先日レポートした物理層の新しい規格です。それがオーディオにも使われると確認できたわけです。
(HDT PHYの記事)
これはBluetooth LEのデータレートが最大7.5Mbpsに向上するというもので、HDTは来年10月にリリースを予定していてスペックがまだ固まっていないとのこと。
デモでは二つのスマホ間でのロードをかけたデータ転送のデモで、実測で4-5MBといったところです。96/24のデータ量は4.6Mbpsくらいなので、微妙なところもありますがこれはまだ向上の余地はあります。ちなみにHDT PHYではなく、現状の2MB PHYを使うとおそらく1Mbpsちょいくらいだと思うので、現状の4倍程度の速度は出ています。
表示されている値は平均4Mbpsくらいです。
ゴンユウ氏にLC3はハイレゾ搬送できないのでは、と聞いたらコーデックもまた別に決まるとのこと。それはLC3plusかと突っ込むと、メンバー企業からさまざまなインプットをもらってるところなので、違うものになるかもしれないそうです。あくまでSIGではLC3plusはオプションと考えているようですね。
はじめて次世代Bluetoothのハイレゾ伝送の萌芽に触れたことはとても興味深かったと言えます。
2025年10月13日
AV WatchでQCY MeloBuds N70のレビュー記事を執筆
AV WatchでQCY MeloBuds N70のレビュー記事を執筆しました。以前これがUSoundのMEMSドライバーを初採用したTWSという記事を書きましたが、それが一体型ユニットの「Greip」だということがわかったのでそれを反映しています。
記事としては読みやすくエッセイ風にイヤピ交換まで書いています。
https://av.watch.impress.co.jp/docs/review/review/2052741.html

記事としては読みやすくエッセイ風にイヤピ交換まで書いています。
https://av.watch.impress.co.jp/docs/review/review/2052741.html
2025年09月30日
XPan開発者インタビューとXPanの考察
さて、ファイルウエブのイベント終了後に開発者のナイジェル・バージェスに直接話を聞く機会を得ました。3月のXPanイベントでの内容の確認でもあります。バージェス氏はその時にしつこく質問をしたことで覚えていてくれたようです。

バージェス氏
まず、XPanのコンセプトを端的にいうと、「Bluetoothでつなぎ、Wi-Fiで届ける」ということです。Bluetoothで繋ぐので簡単で標準的、Wi-Fiで届けるので高音質データを家中に広範囲に届けられます。
まずこの辺りから解き明かしていきましょう。
1 Bluetoothでつなぎ、情報交換
はじめにXPanに疑問に思ったのはスマホはWi-Fi情報(SSIDとパスワード)を手で入力して入れられますが、イヤフォンはどうやってそれを知るのかということです。
バージェス氏によると「例えば、最初のペアリング後にデバイス同士が接続するとします。距離が近い間はBluetoothで通信しますが、もしスマホがWi-Fiに繋がっていれば、そのSSIDとパスワードをイヤフォンに渡して記憶させます。
その後、スマホ側はRSSI(受信信号強度)やネットワーク品質、オーディオ品質をモニターしていて、距離が離れつつあることを検知すると「そろそろBluetoothが切れる」と判断します。そこで「Wi-Fiに切り替えよう」とイヤフォンに伝え、イヤフォンはWi-Fi接続に切り替えるわけです」
これは3月の時にも試しましたが、具体的にはBluetooth LEとWi-FiのP2P接続を「同時に」張っていて、Wi-Fi P2Pの方が先に途切れるのでBLEを用いてこの制御を行います。
バージェス氏に「P2PからスマホのWi-Fiネットワークに切り替わるときに、SSIDやネットワークIDをイヤフォンに伝えるのですか」と聞くと、
バージェス氏は「はい。そのときスマホ(あるいはPC)は“親”の役割で、イヤフォンは“子”です。親が子に「今からWi-Fiに移動しよう」と指示を出す。Wi-Fi上に移った後も、通信は継続され、制御データのやり取りでスマホやPCはイヤフォンが接続していることを確認できます。イヤフォン側も常にハンドセット(スマホ/PC)に接続可能かをチェックしています」と答えてくれました。

左がP2P接続、右がホームネットワーク
2 XPanでのイヤフォンのコントロール
次の疑問はイヤフォンはどうやって再生・停止などの制御信号をスマホやPCに伝えるのか、ということです。これを質問すると、
バージェス氏は「双方向でやり取りしています。イヤフォンはハンドセットのIPアドレスを知っているので、そこにオーディオデータと制御データを送ります。逆方向も同様です。つまり音声と制御の両方が流れるわけです。
P2Pモードの場合には制御はBluetooth経由で行い、ホームネットワークに切り替わった場合にはWi-Fi経由です。将来的には音声アシスタントの操作にも対応できる予定です」と答えてくれました。
将来的には音声アシスタントの操作にも対応できる予定というのはポイントです。
3 XPanでのレイテンシー
もし、XPanイヤフォンをゲームに使った場合、遅延はどうなるか、ということも聞いてみました。
バージェス氏は「現時点では、ゲーム用途はXPanはサポートしていません。高音質で聴くときはXPan(Wi-Fi)を使いますが、ゲームを始めると自動的にLE Audioに切り替わります。つまりWi-Fi接続を切って、Bluetooth LE Audioで低遅延モードに移行します。
Snapdragon Sound対応機種ならさらに遅延を抑えられますが、基本的にはBluetooth LE Audioでのゲーミングになります。」とのことです。
4 XPanでのaptX
3月にXiaomi 15を使用した時に表示で興味があったのはXPanでの通信時には使用コーデックが「aptX Adaptive R4」と謎のR4表示がなされることです。これを聞いてみました。
バージェス氏は「R4は次世代のコーデックで、96kHzのロスレス伝送に対応し、XPanと連携します。従来のR3はLE Audioに対応していましたが、R4(Revision 4)はXPanに対応し、96kHzロスレスをサポートするのです。」と答えてくれました。
つまりXPan上ではWi-Fi上をaptX Adaptive R4コーデックでデータが搬送されていることになります。

XIaomiでの表示
考察
ちなみにここでWi-Fiと呼んでいるのはクアルコムが開発した「低電力Wi-Fi」のことです。これによってイヤフォンでもWi-Fiが使用できるようになりました。「低電力Wi-Fi」自体はXPanだけではなくIoT機器にも使用されているクアルコムの技術(IP)です。
もともとWiFiはBluetoothと違って広範囲・高データレートを主眼に進化してきましたが、そのハードを低電力WiFiに置き換えたと言っても、ソフトとしてのプロトコル全体まで低電力志向にはなりません。
例えばBluetooth では「待機中心・間欠動作」で無駄を排除した省電力指向の機器発見プロトコルで、見つからない場合の繰り返しを低コスト化します。一方、Wi-Fiにも機器発見プロトコルはありますが、「積極送信・連続動作」で高消費になりやすいわけです。
つまり近距離の部分はBluetooth の力を借りてP2Pでハイブリッドアプローチで低電力化を目指し、広範囲が必要になれば本来のWiFiとしてルーターを介して通信するというのがXPanの狙いだと思います。
これによって、ハードウエアでは低消費電力Wi-Fiを使用し、ソフトウエアにおいても低消費電力プロトコルが使えるというわけです。これで全体に低消費電力になり、イヤフォンなどに適した技術となります。これが「XPan」なのでしょう。
バージェス氏
まず、XPanのコンセプトを端的にいうと、「Bluetoothでつなぎ、Wi-Fiで届ける」ということです。Bluetoothで繋ぐので簡単で標準的、Wi-Fiで届けるので高音質データを家中に広範囲に届けられます。
まずこの辺りから解き明かしていきましょう。
1 Bluetoothでつなぎ、情報交換
はじめにXPanに疑問に思ったのはスマホはWi-Fi情報(SSIDとパスワード)を手で入力して入れられますが、イヤフォンはどうやってそれを知るのかということです。
バージェス氏によると「例えば、最初のペアリング後にデバイス同士が接続するとします。距離が近い間はBluetoothで通信しますが、もしスマホがWi-Fiに繋がっていれば、そのSSIDとパスワードをイヤフォンに渡して記憶させます。
その後、スマホ側はRSSI(受信信号強度)やネットワーク品質、オーディオ品質をモニターしていて、距離が離れつつあることを検知すると「そろそろBluetoothが切れる」と判断します。そこで「Wi-Fiに切り替えよう」とイヤフォンに伝え、イヤフォンはWi-Fi接続に切り替えるわけです」
これは3月の時にも試しましたが、具体的にはBluetooth LEとWi-FiのP2P接続を「同時に」張っていて、Wi-Fi P2Pの方が先に途切れるのでBLEを用いてこの制御を行います。
バージェス氏に「P2PからスマホのWi-Fiネットワークに切り替わるときに、SSIDやネットワークIDをイヤフォンに伝えるのですか」と聞くと、
バージェス氏は「はい。そのときスマホ(あるいはPC)は“親”の役割で、イヤフォンは“子”です。親が子に「今からWi-Fiに移動しよう」と指示を出す。Wi-Fi上に移った後も、通信は継続され、制御データのやり取りでスマホやPCはイヤフォンが接続していることを確認できます。イヤフォン側も常にハンドセット(スマホ/PC)に接続可能かをチェックしています」と答えてくれました。
左がP2P接続、右がホームネットワーク
2 XPanでのイヤフォンのコントロール
次の疑問はイヤフォンはどうやって再生・停止などの制御信号をスマホやPCに伝えるのか、ということです。これを質問すると、
バージェス氏は「双方向でやり取りしています。イヤフォンはハンドセットのIPアドレスを知っているので、そこにオーディオデータと制御データを送ります。逆方向も同様です。つまり音声と制御の両方が流れるわけです。
P2Pモードの場合には制御はBluetooth経由で行い、ホームネットワークに切り替わった場合にはWi-Fi経由です。将来的には音声アシスタントの操作にも対応できる予定です」と答えてくれました。
将来的には音声アシスタントの操作にも対応できる予定というのはポイントです。
3 XPanでのレイテンシー
もし、XPanイヤフォンをゲームに使った場合、遅延はどうなるか、ということも聞いてみました。
バージェス氏は「現時点では、ゲーム用途はXPanはサポートしていません。高音質で聴くときはXPan(Wi-Fi)を使いますが、ゲームを始めると自動的にLE Audioに切り替わります。つまりWi-Fi接続を切って、Bluetooth LE Audioで低遅延モードに移行します。
Snapdragon Sound対応機種ならさらに遅延を抑えられますが、基本的にはBluetooth LE Audioでのゲーミングになります。」とのことです。
4 XPanでのaptX
3月にXiaomi 15を使用した時に表示で興味があったのはXPanでの通信時には使用コーデックが「aptX Adaptive R4」と謎のR4表示がなされることです。これを聞いてみました。
バージェス氏は「R4は次世代のコーデックで、96kHzのロスレス伝送に対応し、XPanと連携します。従来のR3はLE Audioに対応していましたが、R4(Revision 4)はXPanに対応し、96kHzロスレスをサポートするのです。」と答えてくれました。
つまりXPan上ではWi-Fi上をaptX Adaptive R4コーデックでデータが搬送されていることになります。
XIaomiでの表示
考察
ちなみにここでWi-Fiと呼んでいるのはクアルコムが開発した「低電力Wi-Fi」のことです。これによってイヤフォンでもWi-Fiが使用できるようになりました。「低電力Wi-Fi」自体はXPanだけではなくIoT機器にも使用されているクアルコムの技術(IP)です。
もともとWiFiはBluetoothと違って広範囲・高データレートを主眼に進化してきましたが、そのハードを低電力WiFiに置き換えたと言っても、ソフトとしてのプロトコル全体まで低電力志向にはなりません。
例えばBluetooth では「待機中心・間欠動作」で無駄を排除した省電力指向の機器発見プロトコルで、見つからない場合の繰り返しを低コスト化します。一方、Wi-Fiにも機器発見プロトコルはありますが、「積極送信・連続動作」で高消費になりやすいわけです。
つまり近距離の部分はBluetooth の力を借りてP2Pでハイブリッドアプローチで低電力化を目指し、広範囲が必要になれば本来のWiFiとしてルーターを介して通信するというのがXPanの狙いだと思います。
これによって、ハードウエアでは低消費電力Wi-Fiを使用し、ソフトウエアにおいても低消費電力プロトコルが使えるというわけです。これで全体に低消費電力になり、イヤフォンなどに適した技術となります。これが「XPan」なのでしょう。
PhilewebのクアルコムXPanイベントレポート
先日の9月28日、東京・飯田橋の会場にて、クアルコムとファイルウェブのコラボレーションによる特別イベントが開催されました。会場では、クアルコム本社スタッフによるプレゼンテーションに加え、日本初となる「XPan」技術の一般公開体験デモが実施されました。

イベント開始時
イベント冒頭では評論家の鴻池氏が登壇し、現代のリスニング環境について以下のように語りました。
「多くの人がBluetoothで音楽を聴いていますが、ストリーミングサービスはすでにハイレゾ・ロスレス配信を始めています。Bluetoothには帯域的な限界がありますが、XPanを使えばハイレゾ・ロスレスを体験できる。良い音楽との出会いを豊かな音質で楽しめるのです」

ナイジェル・バージェス氏、図はP2Pモードとホームモードの説明
続いて登壇したのは、クアルコム V&M部門 プロダクトマネージャーのナイジェル・バージェス氏です。
バージェス氏はまず「Snapdragon Sound」を「ゲーム、ハイレゾ音楽、高音質、低遅延、途切れにくさを実現するエンドツーエンドのシステム」と紹介。そのうえで「XPanはSnapdragon Soundエコシステムの一部であり、Bluetoothを基盤に低消費電力Wi-Fiで拡張する技術」と解説しました。
つまりXPanはBluetoothの弱点である距離や帯域(伝送量)を補い、Wi-Fiを使って最大96kHz/24bitのロスレス音質を家全体に届けられるのが特徴です。
さらにイベントでは、Cear社による特別な試聴デモも行われました。同社は2019年からクアルコムと協業しており、技術基準を満たすかどうかを確認する役割を担っています。
今回のデモでは本来イヤフォン向けのXPan技術を特別に改造し、SoCからSPDIFでデジタル出力。LとR別々なので二枚のボードを使います。

イベントのシステム
試聴ではSBC、44/16 aptX lossless、96/24 XPanの三通りの比較試聴をしました。

テストトーンでのダイナミックレンジの測定
まずCearからテストトーンでの測定結果を紹介。
SBCだと25dB のダイナミックレンジですが、44/16bitロスレスだと75dB 、
XPanの96/24では135dBに達するとのこと。
ちなみに人が聴こえるダイナミックレンジはだいたい120dBから140dB程度と言われてます。24bitでのダイナミックレンジの計算上の理論値は144dBです。
XPanだとほとんどダイナミックレンジとしては振り切ってますが、これだけの音を試すには高級オーディオシステムが必要ということで、今回はアキュフェーズにB&Wという400万円近いシステムが用意されてます。
人間のダイナミックレンジの感度(細かい音が聴こえるという意味で)は3kHz前後が最大なので、女性ヴォーカルの息遣いなどに注意を払うと良いと思います。(これはヒトの進化の過程によるものです)

アキュフェーズの画面でXPan再生の時には96kでロックしていることがわかります。
カントリー曲の男性ヴォーカルとノラジョーンズの女性ヴォーカルでSBC、44/16、96/24(XPan)で切り替え試聴しましたが、差はかなり大きくよく分かります。
SBCは比較すると曇りがあり、音に抑揚がなくこじんまりとしてます。
aptX16ではパッと広がる感じがして鮮明で曇り感が少なくなります。これ自体はXpanと似ていてaptX共通と思われます。
XPanではそれに加えて特に中高音域の音が鮮明になり、高い声が伸びてシャープ、感覚的に16bitより情報量が多く豊かなサウンドと感じます。

質問すると96k以上も将来考えているとのこと。
TWSイヤフォンだとわかりにくいような細かな音も豪華なシステムでわかりやすく伝えた良いイベントでした。
そのあとでバージェス氏に個別にインタビューして、XPanの理解を深めましたが、それはまた別の記事に書きます。
イベント開始時
イベント冒頭では評論家の鴻池氏が登壇し、現代のリスニング環境について以下のように語りました。
「多くの人がBluetoothで音楽を聴いていますが、ストリーミングサービスはすでにハイレゾ・ロスレス配信を始めています。Bluetoothには帯域的な限界がありますが、XPanを使えばハイレゾ・ロスレスを体験できる。良い音楽との出会いを豊かな音質で楽しめるのです」
ナイジェル・バージェス氏、図はP2Pモードとホームモードの説明
続いて登壇したのは、クアルコム V&M部門 プロダクトマネージャーのナイジェル・バージェス氏です。
バージェス氏はまず「Snapdragon Sound」を「ゲーム、ハイレゾ音楽、高音質、低遅延、途切れにくさを実現するエンドツーエンドのシステム」と紹介。そのうえで「XPanはSnapdragon Soundエコシステムの一部であり、Bluetoothを基盤に低消費電力Wi-Fiで拡張する技術」と解説しました。
つまりXPanはBluetoothの弱点である距離や帯域(伝送量)を補い、Wi-Fiを使って最大96kHz/24bitのロスレス音質を家全体に届けられるのが特徴です。
さらにイベントでは、Cear社による特別な試聴デモも行われました。同社は2019年からクアルコムと協業しており、技術基準を満たすかどうかを確認する役割を担っています。
今回のデモでは本来イヤフォン向けのXPan技術を特別に改造し、SoCからSPDIFでデジタル出力。LとR別々なので二枚のボードを使います。
イベントのシステム
試聴ではSBC、44/16 aptX lossless、96/24 XPanの三通りの比較試聴をしました。
テストトーンでのダイナミックレンジの測定
まずCearからテストトーンでの測定結果を紹介。
SBCだと25dB のダイナミックレンジですが、44/16bitロスレスだと75dB 、
XPanの96/24では135dBに達するとのこと。
ちなみに人が聴こえるダイナミックレンジはだいたい120dBから140dB程度と言われてます。24bitでのダイナミックレンジの計算上の理論値は144dBです。
XPanだとほとんどダイナミックレンジとしては振り切ってますが、これだけの音を試すには高級オーディオシステムが必要ということで、今回はアキュフェーズにB&Wという400万円近いシステムが用意されてます。
人間のダイナミックレンジの感度(細かい音が聴こえるという意味で)は3kHz前後が最大なので、女性ヴォーカルの息遣いなどに注意を払うと良いと思います。(これはヒトの進化の過程によるものです)
アキュフェーズの画面でXPan再生の時には96kでロックしていることがわかります。
カントリー曲の男性ヴォーカルとノラジョーンズの女性ヴォーカルでSBC、44/16、96/24(XPan)で切り替え試聴しましたが、差はかなり大きくよく分かります。
SBCは比較すると曇りがあり、音に抑揚がなくこじんまりとしてます。
aptX16ではパッと広がる感じがして鮮明で曇り感が少なくなります。これ自体はXpanと似ていてaptX共通と思われます。
XPanではそれに加えて特に中高音域の音が鮮明になり、高い声が伸びてシャープ、感覚的に16bitより情報量が多く豊かなサウンドと感じます。
質問すると96k以上も将来考えているとのこと。
TWSイヤフォンだとわかりにくいような細かな音も豪華なシステムでわかりやすく伝えた良いイベントでした。
そのあとでバージェス氏に個別にインタビューして、XPanの理解を深めましたが、それはまた別の記事に書きます。
AV Watchで、初心者向け用語の解説記事を執筆しました
初心者向け解説の第二弾、インピーダンスとかバランス接続など店頭でこれなに?と迷うような用語の解説をしました。
前のドライバー編でも仕組みの解説だけでなく、だからどういう音になるという実用的な記事にしましたが、今回もただ意味を解説するだけでなく、それが必要な指標とか手掛かりになるようになるべく実用性を持たせるような記事にしました。
https://av.watch.impress.co.jp/docs/topic/2043150.html
前のドライバー編でも仕組みの解説だけでなく、だからどういう音になるという実用的な記事にしましたが、今回もただ意味を解説するだけでなく、それが必要な指標とか手掛かりになるようになるべく実用性を持たせるような記事にしました。
https://av.watch.impress.co.jp/docs/topic/2043150.html
2025年09月24日
アップルが「自分ダミーヘッド」に似た特許を取得
Patently Appleが紹介したアップルの取得特許で、端的に言うと汎用のHRTFをスマホで撮ったAirPodsの装着位置を元に個人向けに調整した「解剖学的オーディオフィルタ」の特許です。
https://www.patentlyapple.com/2025/09/a-newly-granted-patent-from-apple-advances-spatial-audio-with-anatomically-aware-filtering.html
これはfinalの言っていた「自分ダミーヘッド」の最終形であるスマホ撮影版にとても似ているように思えます。ただし目的がfinalでは音色際限の向上であるのに対し、アップルはあくまで空間オーディオ再現の向上である点は異なるとは思います。

画像はPatently Appleより引用
https://www.patentlyapple.com/2025/09/a-newly-granted-patent-from-apple-advances-spatial-audio-with-anatomically-aware-filtering.html
これはfinalの言っていた「自分ダミーヘッド」の最終形であるスマホ撮影版にとても似ているように思えます。ただし目的がfinalでは音色際限の向上であるのに対し、アップルはあくまで空間オーディオ再現の向上である点は異なるとは思います。
画像はPatently Appleより引用

