自分はBASIC止まりで、Arduinoの場合は簡単なスケッチしか書けないので、Codexでコードを生成してもらっている。
いま流行りのバイブコーディングというやつだと思うが、いくらか知識が無いと、順調に進まない。
Seeed_Arduino_Audioというものを使っているが、ちんぷんかんぷんなので、Codex頼みになっている。
最終的な目標は、ガンズ・アンド・ローゼズのSlashのギターサウンドに近い音を出すこと。
Slashのギターソロと言えば、ゴッドファーザーのテーマだ!ということで、トライしてみたが...
ビルドと書き込みまで成功するものの、思ってた楽曲と違うー。
Slashは諦めて、ギターリフの定番のSmoke on the waterに切り替えてみたが...
近いけどやっぱり違うー。
やることの相談用に、ChatGPTを使っているが、できないこともできると断言してしまうので、またもやこのトラップにハマった。
---
ChatGPTは理論上「ドレミ表現(音階情報)」を理解していますが、
それを実際の音(波形)に変換する内部機能が無いため、次のような制約があります。
1. ドレミ=相対的な音高情報にすぎず、ChatGPTはそれを「周波数列」に変換しても鳴らせない。
2. WAVやMIDIを作るには、周波数・波形・長さを数値化して合成する必要があるが、
ChatGPT自体には「波形を生成・保存するAPI」が無い。
3. 「音階列の再現」は可能でも、「その音を鳴らすデータ生成」は外部環境(PythonやDAWなど)が必要。
---
ということらしい。
てなことで、次はギターソロのフリー音源をダウンロードして、それを再生できるようにしようと思う。
長時間かけたけど、今回は成果なし...
0 件のコメント:
コメントを投稿