لم يعد الذكاء الاصطناعي في الموسيقى مجرد أداة مساعدة أو تجربة هامشية. خلال وقت قصير، تحوّل إلى عنصر يعيد طرح سؤال جوهري: ما هي الموسيقى أصلًا؟ هل هي أغنية تُكتب وتُسجَّل وتُنشر؟ أم تجربة صوتية متغيّرة تُستهلك في اللحظة، وتتشكل بحسب المزاج والحاجة؟
هذا التحوّل يتجسّد بوضوح في نموذج Lyria الذي طوّرته Google DeepMind، والمتاح تجريبيًا عبر منصة Gemini. على عكس معظم أدوات الذكاء الاصطناعي الموسيقية، لا يطلب Lyria كلمات ولا قصة ولا حتى فكرة واضحة. سؤاله بسيط ومربك في آن: ما هو “المود”؟
تختار الجو: بوب لاتيني، هيب هوب تسعيناتي، سينماتيك، فولك بالاد، فتبدأ الموسيقى بالتشكّل لحظيًا. ليست أغنية مكتملة، بل تدفّق صوتي حيّ، يتغير باستمرار، وكأنك تجلس بجانب آلة موسيقية ترتجل وحدها بلا توقف. في نسخته التفاعلية (Lyria RealTime)، لا تعود الموسيقى منتجًا نهائيًا، بل تجربة مستمرة لا تتكرر بالطريقة نفسها مرتين.
هذا النموذج يضعنا أمام مسار جديد: الموسيقى كخدمة تفاعلية، لا كعمل مغلق. موسيقى تُستخدم للمزاج، للتركيز، للقراءة، للألعاب، أو حتى كخلفية متغيّرة للحياة اليومية. هنا لا أهمية للأغنية بقدر أهمية الإحساس اللحظي.
في المقابل، هناك مسار آخر يسير في اتجاه معاكس تمامًا. أدوات مثل Suno وUdio لا تهدف إلى خلق تجربة مفتوحة، بل إلى إنتاج أغنية مكتملة: كلمات، مغنٍ افتراضي، لحن، توزيع، وهوك جاهز للنشر. في دقائق قليلة، يحصل المستخدم على ملف صوتي يمكن وضعه مباشرة على المنصات.
هنا يتحول الذكاء الاصطناعي إلى “مصنع أغاني”، يختصر مراحل طويلة من التأليف والتسجيل. لكن هذا المسار يطرح أسئلة حساسة حول الملكية، والحقوق، ومعنى الإبداع نفسه. فامتلاك ملف صوتي لا يعني بالضرورة امتلاك حقوقه التجارية، خصوصًا مع تغيّر شروط الاستخدام بين منصة وأخرى.
بين هذين المسارين، التجربة المفتوحة والأغنية الجاهزة، تتشكل خريطة أوسع لاستخدام الذكاء الاصطناعي في الموسيقى. فهناك أدوات لا “تؤلف” بقدر ما تُعيد تعريف عملية الإنتاج نفسها.
في صناعة الفيديو، على سبيل المثال، تظهر أدوات مثل أنظمة توليد الموسيقى التابعة لـ Adobe، والتي تركز على إنتاج موسيقى وظيفية تتكيّف مع الصورة. هنا يمكن تمديد المقطوعة، تغيير شدتها، أو إعادة هيكلتها لتناسب المونتاج، بدل البحث الطويل في مكتبات موسيقية جاهزة. الموسيقى تصبح عنصرًا مرنًا داخل عملية التحرير، لا ملفًا ثابتًا يُفرض على الصورة.
أما داخل الاستوديو، فقد أصبح الذكاء الاصطناعي حاضرًا في مراحل أقل إثارة للجدل، لكنها شديدة التأثير. أدوات فصل المسارات (Stems) مثل Moises أو LALAL.AI تتيح استخراج الصوت، الدرمز، أو البايس من تسجيل واحد، ما يفتح بابًا واسعًا للتعلّم، والريمكس، وإعادة التوزيع.
وفي الميكس والماستر، لم يعد المنتج المستقل مضطرًا دائمًا للاستعانة باستوديو مكلف. أدوات مثل أنظمة الماستر الذكية من iZotope أو خدمات LANDR باتت قادرة على تحليل الصوت وضبط توازنه الديناميكي والترددي بسرعة غير مسبوقة، مع نتائج مقبولة على الأقل، وأحيانًا مبهرة.
حتى المؤثرات الصوتية لم تسلم من هذا التحوّل. منصات مثل ElevenLabs تتيح توليد مؤثرات وبيئات صوتية من النص مباشرة، ما يغيّر طريقة عمل صناع الفيديو والبودكاست، ويقلّل اعتمادهم على مكتبات جاهزة ومتكررة.
وسط كل هذا، لم يعد السؤال الحقيقي: هل يستطيع الذكاء الاصطناعي أن يكتب موسيقى؟ هذا السؤال حُسم.
السؤال الأهم اليوم هو: أي موسيقى نريد؟ هل نبحث عن أغنية جاهزة للنشر؟ أم عن تجربة صوتية متجددة تتغيّر مع مزاجنا؟ أم عن أدوات ذكية تُخفّف عبء الإنتاج وتفتح المجال لتجارب جديدة؟
ما يبدو واضحًا أن قواعد اللعبة تتغيّر، لا لأن الذكاء الاصطناعي “يحل محل الإنسان”، بل لأنه يعيد توزيع الأدوار. وربما بعد سنوات قليلة، لن يبدو غريبًا أن تكون الموسيقى في معظمها هجينة: بشرية في روحها، خوارزمية في أدواتها، فيما يصبح الاعتقاد بأن الموسيقى كانت تُصنع يومًا بأيدٍ بشرية فقط… هو الفكرة الأكثر غرابة.






