オルタナティブ・ブログ > モノを買わなくなった時代、ほな何やったら買うてもええねやろ? >

大量消費をボイコットしはじめた生活者視点からのインサイトメモ

LLMとのモノローグ:Now And Then(時々...)

»

now_then.jpg

Me:オーディオのD級アンプは、コンパレータによる検出結果に従ってスイッチングするわけですが、大雑把に考えると、1bitオーディオのデジタルアンプと動作原理が似ているように思います。

ChatGPT(2.5 Flash):おっしゃる通り、オーディオのD級アンプと1bitオーディオのアンプ(特にDSD信号を直接増幅する場合)の動作は、最終的な出力段の方式において概念的に非常によく似ています。

D級アンプは、入力された音声信号をPWM(パルス幅変調)などの高周波パルス列に変換し、このパルス列でパワースイッチ(FETなど)を高速にオン/オフします。スイッチがオンの時は最大電圧、オフの時はゼロ電圧となり、このオン/オフ時間の比率(パルス幅)によって、一定時間内の平均電圧が元の音声信号の振幅に相当するように制御されます。最終的に、このスイッチング波形をローパスフィルターに通すことで、高周波成分を取り除き、滑らかな音声信号を取り出します。

一方、1bitオーディオ(特にDSD方式)は、音声信号の振幅を、非常に高い周波数の1bitパルス列の「密度」として表現します。振幅が大きい時は1(あるいは特定の極性)のパルスの密度が高く、振幅が小さい時は密度が低くなります。この1bitパルス列をアナログ信号に戻す際、最もシンプルな方法は、このパルス列で直接パワースイッチを駆動し、D級アンプと同様にローパスフィルターを通すことです。この場合、パルス列の密度が高いほどスイッチがオンになっている時間の「割合」が高くなり、ローパスフィルター後の平均電圧が高くなる、という形で元の音声信号が再現されます。

したがって、
・D級アンプ:音声信号の振幅をパルスの「幅」で表現し、そのパルスでスイッチを駆動する。
・1bitオーディオ(DSD)の直接増幅:音声信号の振幅をパルスの「密度」で表現し、そのパルスでスイッチを駆動する。
という違いはありますが、どちらも高周波のスイッチング動作を行い、そのパルス列の平均値をローパスフィルターで取り出すことで、元の音声信号を再現するという点で共通しています。

特に、DSD信号をデジタルのまま直接D級アンプの入力段(変調器部分を省略してスイッチング回路に直結するような構成)に入力して増幅する方式は存在し、この場合はD級アンプと1bitオーディオアンプの区別がより曖昧になり、非常に近しいものと言えます。

コンパレータはD級アンプにおけるPWM信号生成の一部(オーディオ信号と三角波/ノコギリ波などを比較してパルス幅を決める)に使われることが典型的ですが、この「比較」という動作自体が、ある閾値(この場合はゼロやキャリア波のレベルなど)を超えたかどうかでオン/オフを決める、という意味では、1bit信号生成の考え方(例えばデルタ・シグマ変調器内の比較器)や、その後の信号でスイッチをオン/オフする動作とも関連付けられます。

まとめると、D級アンプも1bitオーディオアンプも、アナログ信号を時間の離散的なパルスに変換し、そのパルスの特性(幅や密度)に信号の情報を乗せ、高速スイッチングとフィルターでアナログに戻す、という点で非常に類似した原理に基づいていると言えます。

Me:これは非常に面白い回路構成ですね。

「DSD信号をデジタルのまま直接D級アンプの入力段(変調器部分を省略してスイッチング回路に直結するような構成)に入力して増幅する方式」

このように、いかにして処理を「省略し、簡素化するか」という思考は、ひとつの知性のあり方です。

ChatGPT(2.5 Flash):おっしゃる通りですね。DSD信号を直接D級アンプのスイッチング段に接続するというアイデアは、非常にエレガントで合理的な設計アプローチだと思います。

信号の特性(DSDがすでに高密度のパルス列であること)と、D級アンプの基本動作(パルス列の平均値をアナログ信号として取り出すこと)を深く理解していればこそ、「あえて複雑な変調回路を通す必要はない、直接やればいい」という発想が生まれるわけです。

これはまさに、問題を本質的に捉え、不必要な手順を省き、最も効率的で直接的な解決策を見つけ出す、という「知性」の働き方の一例と言えるでしょう。無駄を削ぎ落とし、シンプルでありながら高い性能を実現する設計思想は、技術分野に限らず、様々な分野で見られる洗練された知性の現れですね。

この方式は、信号経路を短くし、デジタル・アナログ変換のプロセスを極限まで単純化することで、理論的には音質劣化の要因を減らす可能性も秘めています。非常に興味深い回路構成です。

Me:デジタルオーディオにおいては、フーリエ変換の原理を応用して、ファイルサイズを圧縮したり、あるいはサンプリング周波数やビット深度を上げて音質を向上させるアップサンプリング技術が広く用いられています。

ChatGPT(2.5 Flash):おっしゃる通りです。デジタルオーディオにおいて、フーリエ変換の原理とアップサンプリング技術は非常に重要な役割を果たしています。

フーリエ変換(およびその派生技術)の応用:
これは主に、非可逆圧縮(ロッシー圧縮)の根幹をなす技術です。MP3やAACなどの形式では、音声信号を時間領域から周波数領域に変換するために、離散フーリエ変換(DFT)や特にその派生であるMDCT (Modified Discrete Cosine Transform) といった技術が用いられます。

周波数領域で信号を分析することにより、人間の聴覚が感知しにくい高周波成分や、他の大きな音にマスクされて聞こえにくい成分(音響心理学に基づいた原理)を特定し、これらの成分の情報を削減したり完全に削除したりします。これにより、元のデータ量を大幅に減らしつつ、聴感上の劣化を最小限に抑えた圧縮が可能になります。つまり、フーリエ変換は「音を周波数成分に分解し、不要な部分を捨てる(あるいは精度を落とす)」ための強力なツールとして使われています。

アップサンプリング技術:
これは主に、デジタル・アナログ変換(DAC)の過程や、デジタル信号処理の段階で用いられます。

サンプリング周波数のアップサンプリング:
元の低いサンプリング周波数のデータポイントの間に、補間によって新しいデータポイントを追加し、サンプリング周波数を高めます。これにより、DACの後に必要となるアナログのローパスフィルターの設計が容易になります。高い周波数にノイズやエイリアシング成分が移動するため、より緩やかな特性のフィルターでこれらを除去できるようになり、結果としてオーディオ帯域へのフィルターによる悪影響(位相の乱れなど)を減らし、音質向上に寄与すると考えられています。

ビット深度のアップサンプリング:
元の低いビット深度(例:16bit)のデータを、より高いビット深度(例:24bitや32bit)のデータに変換します。これは、単純に下位ビットをゼロやパターンで埋めるだけでなく、ディザリングやノイズシェーピングといった技術を組み合わせることで、より広いダイナミックレンジでのデジタル処理(音量調整、EQなど)において演算誤差(量子化誤差)が発生しにくくなり、最終的なアナログ変換での精度を高める効果が期待できます。

Me:たとえば、サンプリング周波数は同じで、ビット深度を(例:16bitを24bitに)上げても、記録される波形は相似ですね。二つの波形は重なります。しかし、もし44.1kHz/16bitの波形を48kHz/24bitに変換した場合は、16bitでは表現できなかった座標を通る、より精細な波形を描くことになります。

ChatGPT(2.5 Flash):おっしゃる通り、サンプリング周波数とビット深度の変更による波形表現の変化について、非常に的確なご説明です。

サンプリング周波数同じ、ビット深度のみ向上(例: 44.1kHz/16bit → 44.1kHz/24bit):
この場合、元の44.1kHzのタイミングで記録されたサンプル点そのものの時間軸上の位置は変わりません。 ビット深度が16bitから24bitになったことで、各サンプル点が表現できる振幅の分解能が高まります。

元の16bitデータは、そのまま上位16bitに格納され、下位8bitは通常ゼロなどで埋められます。したがって、元の16bitで表現されていた振幅値は、24bit空間でもそのままの数値で表現されます。

結果として、記録されたサンプル点のセットを比較すると、振幅方向の表現力が上がっただけで、点の位置そのものは時間軸上・振幅軸上(元の16bitステップ上で)は同じになります。おっしゃるように、この点のセットを繋いで描かれる波形は、元の16bitのデータポイントを通るという意味で「相似」であり、それらの点上では「重なる」と見なすことができます。

ただし、24bitで記録することで、その後のデジタル処理(音量調整、EQなど)を行った際に発生する微細な演算結果を、より高い精度で保持できるようになり、処理後の量子化誤差を低減できるメリットがあります。

サンプリング周波数もビット深度も向上(例: 44.1kHz/16bit → 48kHz/24bit):
こちらの場合、サンプリング周波数が変わることが大きな違いを生みます。44.1kHzから48kHzへの変換(リサンプリング)では、元の44.1kHzのタイミングのサンプル点から、48kHzの新しいタイミングでのサンプル点の値を推測し、作り出す(補間する)処理が行われます。

この補間によって生成される新しいサンプル点の値は、元の44.1kHzのサンプリングタイミングとは異なる時間位置に存在し、その振幅値も元の16bitの階段状の値の中間に来ることがほとんどです。

さらに、この補間計算は高い精度(内部的には浮動小数点数など)で行われ、その結果を24bitで記録することで、元の16bitでは表現できなかったより細かな振幅のグラデーションを保持できます。

したがって、この場合の波形は、元の44.1kHz/16bitのグリッド上には存在しなかった新しい時間位置に、元の16bitでは表現できなかった新しい振幅値を持つ点によって構成されます。これはまさに、元のデータに含まれる情報を基に、より多くの点で、より高い振幅分解能で波形を描き直すことで、「より精細な波形を描く」ことに相当します。元の波形が持っていた情報をより詳細なグリッド上で表現し直した波形と言えます。

まとめると、ビット深度のみの向上は「振幅表現の階段の細かさ」を増す(元のステップ位置は変わらない)のに対し、サンプリング周波数とビット深度の両方の向上は、「時間軸上の点の密度」を増し、その点の「振幅表現の階段の細かさ」も増すことで、元の波形をより高解像度なグリッド上に再構築する、という違いがあります。

Me:音源データは、いわば「一筆書き」の図形と見做すことができます。であれば、ベクターデータとして記録すれば、滑らかな出力波形を再構成できると思いますが、そういう技術は存在しますか?

ChatGPT(2.5 Flash):その「一筆書き」や「ベクターデータ」というアナロジーは、デジタルデータの表現方法の本質を突いていて、非常に面白い視点だと思います。

画像を例にとると、ビットマップ画像(JPEG, PNGなど)はピクセルという点の集まりで図形を表現する、いわば「点のデータ」で、これを拡大するとギザギザ(ジャギー)が生じます。これはデジタルオーディオのサンプリングデータ(PCMなど)が、ある時点での振幅という点の集まりで波形を表現するのと似ています。

一方、ベクター画像(SVGなど)は、図形を直線や曲線といった数式で表現するため、どれだけ拡大しても滑らかさが失われません。この考え方をオーディオ波形に適用し、音源データを点の集まりではなく、波形そのものを数学的な曲線や関数で記述するような技術は、まさに理想的な表現方法のように思えます。しかし、現状、任意の実世界で収録された複雑な音(人の声、楽器演奏、自然音など)を、高精度かつ効率的に「ベクターデータ」として記述する一般的な技術は存在しません。

その理由としては、主に以下の点が挙げられます。

波形の複雑さ:
実世界の音の波形は、単一の数式や簡単な組み合わせで表現できるようなシンプルな形状をしていることは稀です。非常に細かい、非周期的な変化に富んでおり、これを数学的な曲線で正確にフィットさせようとすると、記述が膨大になりすぎてデータ量がかえって増大するか、あるいは精度を犠牲にせざるを得なくなります。

数学モデルの限界:ベジェ曲線のようなベクターグラフィックスで使われる曲線は、比較的単純な図形を描くには適していますが、音声波形の複雑な時間的変化(倍音構成、アタック、ディケイ、ノイズ成分など)を精密に表現するには不向きです。
合成と分析の違い: 楽器の音を「合成」する技術(シンセサイザーの物理モデリングなど)は、ある音源の特性を数学的に記述して音を作り出すものですが、これは「既に存在する録音された音」を分析して数学的に記述し直すのとは根本的に異なります。既存の録音を分析して、その波形を後から曲線で記述しようとすると、膨大な数の曲線セグメントが必要になり、実用的ではありません。

一部の音声圧縮技術(例えば、音声符号化に使われるCELPなど)では、人間の声道をモデル化したり、音源(声帯の振動やノイズ)をパラメータ化したりすることで、ある意味「音の生成メカニズム」を記述し、受信側でそのパラメータに基づいて音声を合成するというアプローチをとります。これはベクターデータ的な考え方に近い側面もありますが、あくまで特定の種類の音(主に音声)に特化したものであり、あらゆる種類の音源を汎用的に高精度な「ベクター波形」として表現するものではありません。

現在のハイレゾオーディオ技術は、ベクター表現ではなく、サンプリング周波数とビット深度を極めて高くすることで、点の密度と精度を上げ、「点の集まり」を限りなく滑らかなアナログ波形に近づけるというアプローチで高音質化を図っています。これは、ベクター化が難しい複雑な波形でも、点の数を増やせば物理的に忠実な再現が可能になる、という思想に基づいています。したがって、「ベクターデータ」として音源を記録し、無限に滑らかな波形を再構成するという技術は、概念としては面白いものの、複雑な実世界音を扱う上での実用的な方法としては、現在のところ存在しないと言えます。

Me:たとえば、LLMの技術は、チェスや将棋において「総当たり」方式で考えるのではなく、推論の積み重ねによって次の一手を考えるロジックがベースになっています。このような考え方をオーディオのフォーマットに活かせないものかと考えるわけです。

ChatGPT(2.5 Flash):非常に興味深く、未来志向のアイデアですね。LLMや画像生成AIが「推論」や「生成」をベースとしている点に着目し、それをオーディオフォーマットに応用できないかという発想は、まさに技術の進化の方向性を捉えていると思います。

おっしゃる通り、LLMはテキストのパターンや意味構造を学習し、与えられた文脈から次に来るべき単語や文章を「推論・生成」しています。また、最新の画像生成AI(例えばDiffusionモデルなど)は、大量の画像を学習して「画像とは何か」の潜在的な表現を獲得し、テキスト指示やノイズからその表現を使って具体的な画像を「生成」します。これらは、データをそのまま記録するのではなく、データの生成規則や高レベルな特徴、あるいは潜在的な状態を学習・記憶し、必要に応じて詳細なデータを再構築(生成)するというアプローチです。

この考え方をオーディオに適用すると、以下のようなイメージになるかもしれません。

音源の分析と高レベル特徴化:
元の音声波形を直接記録するのではなく、その音の持つ高レベルな特徴(例:メロディ、リズム、音色、感情、空間情報など)や、それを生成するための潜在的なパラメータをAIモデルが分析・抽出します。

圧縮された特徴データの記録:
抽出された高レベル特徴やパラメータを、波形データよりも遥かに小さなデータ量で記録します。

再生時の波形生成(推論):
記録された特徴データとAIモデルを使って、再生時にリアルタイムで詳細な音声波形を「推論・生成」します。

このようなアプローチは、既存のオーディオフォーマットとは根本的に異なります。

PCM/DSD:
波形の形状を点の羅列(サンプリングデータ)として記録する。これは画像のピクセルデータ(ビットマップ)に近い。

MP3/AAC:
波形を周波数成分に分解し、聴覚特性に基づいて不要な成分を削除・単純化して記録する。これは周波数領域での近似であり、根本は波形情報を変換して保持するもの。

提案されるモデル:
波形そのものではなく、波形を生成するための「レシピ」や「設計図」のようなものを記録するイメージ。

この技術は、まさに現在研究開発が進んでいるAIによるオーディオ生成技術の延長線上にあると言えます。 テキストから音楽や音声を生成するモデル(例: MusicLM, AudioLM, Jukeboxなど)は、まさに音響データを学習し、高レベルな指示(テキストや他の音響データ)から詳細な音響波形を「推論・生成」しています。

将来的には、このような生成AIの技術がオーディオフォーマットに応用され、以下のようなメリットが生まれる可能性が考えられます。

極めて高い圧縮率:
波形そのものではなく、生成パラメータを記録するため、データ量が飛躍的に削減される可能性があります。

柔軟な操作性:
再生時に、記録された特徴データの一部を変更したり、外部からの指示(テキストなど)を加えたりすることで、音の音色、テンポ、楽器などを変えたり、新たな要素を加えたりするといった、従来のフォーマットでは考えられなかった編集や操作が可能になるかもしれません。

超解像度再生:
生成モデルが学習した高精細な波形パターンを適用することで、記録された特徴データ以上の滑らかさやディテールを持つ波形を生成できる可能性。

課題としては、高精度な波形をリアルタイムで「生成」するための計算能力や、生成された波形が元の音源のニュアンスを忠実に再現できるか(特に記録時に失われた細部の再現性)、そして汎用性(あらゆる種類の音に対応できるか)などがあります。
しかし、LLMや画像生成AIの成功を見れば、オーディオ分野でも同様の「推論・生成」ベースの技術が、従来のフォーマットとは一線を画す新たな可能性を切り拓くことは十分に考えられます。お考えの通り、これは非常に有望で知的なアプローチであり、今後のオーディオ技術の大きな方向性の一つとなるでしょう。

Me:それはオーディオというよりも、DTM(音楽制作)をオンデマンドでリアルタイムに動かすようなプロセスになりますね。たとえば、カラオケソフトはそういうものだと思います。

ChatGPT(2.5 Flash):まさにその通りです。そのように「高レベルな情報から波形を生成する」という考え方は、現在のDTMやカラオケソフトウェアが行っているプロセスと非常に似ています。

DTM:
MIDIデータ(どのタイミングで、どの音程の、どの楽器の音を出すか、といった指示)を基に、ソフトウェア音源やハードウェア音源がリアルタイムに波形を生成します。これは、楽譜情報や演奏指示という高レベルなデータから、具体的な音響波形を生成するプロセスです。

カラオケソフト:
バックグラウンドの演奏部分でMIDIやそれに類する構造化データを使用している場合、これも演奏情報から音源がリアルタイムに波形を生成しています(ボーカル部分は別途収録されているか、生成対象外であることが多いですが)。
これらの技術は、まさに「音源データ=点の羅列」ではなく、「音源データ=音を出すための指示やパラメータ」として扱い、再生時にその指示に従って音を生成するというモデルです。

しかし、今回話題にしている「AIの推論・生成を応用したオーディオフォーマット」は、DTMやMIDIベースのカラオケとは目的と対象範囲が異なります。

DTM/MIDI:
主に音楽的な構造(音階、リズム、音色モデル)をパラメータ化し、シンセサイザーなどの仕組みで音を合成することを目的としています。任意の実世界音(人の話し声、複雑な環境音、楽器の微妙な演奏ニュアンス、ライブ演奏の空気感など)をそのままの形で高精度に再現することは不得意です。

AIの推論・生成を応用したフォーマット:
録音された任意の実世界音波形そのものが持つ複雑なパターンやテクスチャ、細部のニュアンスを含めて学習し、その音源固有の高レベル特徴から元の波形をできるだけ忠実に「再構築(生成)」することを目指します。これは、単に楽譜通りに音を出すのではなく、特定の歌手の声質、特定のライブでの演奏の「揺らぎ」、特定の場所の「環境ノイズの質感」といった、楽譜や簡単なパラメータでは表現しきれない情報を扱う可能性を秘めています。

つまり、DTMやMIDIが「楽譜と楽器指定から演奏を生成する」のに近いとすれば、AI推論ベースのフォーマットは「特定の演奏や音響イベントの"本質"を掴んで、それを再現(生成)する」ことに近いと言えます。

Me:「AIの推論・生成を応用したフォーマット」の概念は、譜面と演奏の関係に似ていますね。たとえば交響曲の譜面を言語的にデータ化したものは、交響曲の音源そのものにくらべて、はるかに小さなファイルサイズに収まります。

ChatGPT(2.5 Flash):その通りです!交響曲の譜面をデジタルデータ(例えばXML形式などで楽譜情報を構造化したもの)として記録した場合と、同じ演奏をCD品質(44.1kHz/16bitステレオ)やハイレゾで録音したオーディオデータとでは、ファイルサイズに圧倒的な差が出ます。

譜面データ:
音符、休符、記号、演奏指示といったシンボリックな情報を記録します。これは、音楽の構造や演奏の指示を表す「設計図」であり、具体的な音響波形の情報を含みません。

オーディオデータ(音源):1秒間に数万回(サンプリング周波数)もの速さで、音圧のレベル(振幅、ビット深度)を記録した点の羅列です。演奏家、楽器、空間、マイクの特性など、あらゆる音響的な情報が、物理的な波形の情報としてそのまま記録されます。そのため、データ量は譜面データに比べて格段に大きくなります。

「AIの推論・生成を応用したフォーマット」が目指すのは、まさにこの譜面のような「コンパクトさ」を、オーディオ録音に対して実現することです。

譜面が演奏家への「指示」であるように、AIフォーマットの高レベル特徴データはAIモデルへの「指示」や「パラメータ」として機能します。これにより、詳細な波形そのものを記録するよりも、データ量を大幅に削減できる可能性を秘めているわけです。

このファイルサイズの圧縮効果は、ネットワーク配信やストレージ容量の観点からも非常に大きなメリットとなり得ます。譜面と演奏の関係性をサイズで比較するという視点は、この新しいオーディオフォーマットの潜在的な利点を非常に明確に示していますね。

Me:携帯電話の音声信号も、アルゴリズムを用いてデータを補完した上で復号(デコード)しています。

ChatGPT(2.5 Flash):おっしゃる通りです。携帯電話の音声通話で使われている技術は、まさにデータを効率的に伝送し、さらに通信状況が悪くても音声を途切れさせないようにするための高度な処理を行っています。

携帯電話の音声コーデック(AMR, EVSなど)は、単に音声波形を細かくサンプリングして圧縮するPCMのような方式ではなく、音声がどのように生成されるか(人間の声帯の振動や声道による共鳴など)のモデルに基づいて、音声信号を分析し、そのモデルのパラメータとして符号化(エンコード)しています。

受信側では、送られてきたパラメータを基に、同じ音声生成モデルを使って音声を合成(デコード)します。この方式は、波形そのものを送るよりも遥かに少ないデータ量で音声を再現できるため、限られた通信帯域を有効活用できます。

そして、おっしゃる「データを補完した上で復号する」というのは、主にエラーコンシールメント(Error Concealment - 誤り隠蔽)という技術を指していると考えられます。携帯電話の通信では、パケットロスなどによってデータの一部が失われることがあります。データが丸ごと失われると音が途切れてしまいますが、エラーコンシールメント技術では、失われたパケットの前後のデータや、過去の音声パターンから、失われた部分の音声を「予測」あるいは「補間」して生成し、途切れを耳立たなくするようにしています。

これは、送られてきた限られた情報や、あらかじめ学習された音声のパターンに基づいて、失われた部分の音声を「推測・生成」しているプロセスと言えます。波形のすべての点を正確に受け取ることを前提とするのではなく、ある程度の欠落があっても、アルゴリズムの力で音声を再構築しようとするアプローチです。

この意味で、携帯電話の音声コーデックは、
・波形そのものでなくパラメータを送信する モデルベースの符号化(「譜面」に近い高レベル情報の伝送)
・データ欠落時にアルゴリズムで音声を再構築する 補間・生成(「演奏」や「推論による波形生成」に近い処理)
という側面を持っており、先に議論した「AIの推論・生成を応用したフォーマット」の考え方と、効率性や頑健性を目指す点で共通する部分がある、非常に良い例と言えます。

Me:「AIの推論・生成を応用したフォーマット」は、近い将来、誰かが実用化を試みるでしょうね。ビートルズの「Now And Then」の制作プロセスにも似ています。

ChatGPT(2.5 Flash):おっしゃる通りです!その「AIによる複雑な実世界音のパターン学習と高レベル特徴からの波形再構築」という考え方は、まさにビートルズの「Now And Then」の制作において、ピーター・ジャクソン監督チームが活用した技術(MALという機械学習システム)がやろうとしたことと方向性が似ています。

「Now And Then」の場合、ノイズが多いデモテープからジョン・レノンの声、ピアノ、他の楽器といった個々の音源をAIを使って分離・抽出し、クリーンな形で取り出す作業が行われました。これは、AIが複雑な音響信号の中から、特定の「音源」や「要素」が持つパターンを認識・理解し、分離・再構築するというプロセスです。これは、今回話している「音源固有の高レベル特徴から波形を生成する」という考え方の、ある種の応用例と言えます。AIが音の「内容」や「構成要素」を理解する能力なくしては実現できなかったことです。

このようなAIによる高度な音響信号処理技術の進展を見れば、録音された音の波形をそのまま記録するのではなく、その音の本質や特徴を抽出して記録し、再生時にAIがそれを基に波形を生成するというアプローチが、近い将来、実用的なオーディオフォーマットとして試みられる可能性は非常に高いでしょう。

Me:時々(now and then)誰かがこの歌を思い出して聴きたいと思う。すると曲が「再生成」されるわけです。

Now and then
I miss you
Oh, now and then
I want you to be there for me...


https://gemini.google.com/

Comment(0)