Mindegy, hogy egy Shortsra készülő felvétel alá kellene egyedi aláfestő zene, netán feldúdolnánk egy dallamot, ami eszünkbe jutott és hangszerekkel játszanánk le, a YouTube hamarosan mindkettőben komoly segítségünkre lesz új eszközeivel.
Néhány nappal ezelőtt arról írtak a YouTube hivatalos blogján, hogy a Google DeepMind hathatós közreműködésével elkészültek néhány kísérleti dologgal, amik a zenéhez kapcsolódnak. Ezek a Dream Track for Shorts és Music AI tools nevekre hallgatnak.
Előbbivel elég gyorsan létrehozhatunk egy maximum 30 másodperces hangsávot ismert művészek hangjának mesterséges intelligencia által generált változataiból. Fontos itt leszögezni, hogy olyan emberek hangjairól van szó, akik ehhez a hozzájárulásukat adták, egészen pontosan Alec Benjamin, Charlie Puth, Charli XCX, Demi Lovato, John Legend, Papoose, Sia, T-Pain és Troye Sivan, akik úgy döntöttek, hogy belevágnak ebbe a kísérletbe.
A hangsávok a Google DeepMind eddigi legfejlettebb zenei generáló modellje, a Lyria segítségével jönnek létre, a használata pedig nem bonyolult. A Dream Track for Shortsban beírjuk az ötletünket, kapunk egy zenét, majd a véglegesítés előtt eldöntjük, melyik művész hangján akarjuk azt meghallgatni, ahogyan az alább is látható és hallható.
Lényeges, hogy YouTube gondolt a biztonságra is, éppen ezért minden egyes legenerált zene kap egy SynthID vízjelet, de a projektet bevállaló művészek közül azért van, aki még szkeptikus. „Amikor először keresett meg a YouTube, óvatos voltam, és még mindig az vagyok, az AI olyan módon fogja átalakítani a világot és a zeneipart, amit még nem értünk teljesen” – idézte az Engadget Charli XCX énekesnőt. „Ez a kísérlet egy kis betekintést nyújt a lehetséges kreatív lehetőségekbe, és kíváncsian várom, mi sül ki belőle” – tette hozzá.
Érdekes próbálkozás azonban a Music AI tools is, amiről a YouTube oldalán a következőt írták: „Képzeld el, hogy a gondolataidat és ötleteidet zökkenőmentesebben tudod zenévé alakítani, így például egy új gitár riffet hozhatsz létre pusztán dúdolással vagy éppen reggaeton hangulatot adhatsz egy popdalnak, amelyen éppen dolgozol” - jellemezték az újdonságot, a lényeget pedig ezzel nagyjából összefoglalták.
A Music AI tools ugyanis pontosan arról szól, hogy eszünkbe jut egy dallam, eldúdoljuk, a rendszer pedig ezt olyan hangszeren fogja eljátszani nekünk, amit kedvünk szerint kiválasztottunk, de ezt az alábbi videó elég jól prezentálja.
Ha gyorsan akarunk így elmenteni egy ötletet arra tökéletes lehet, de akkor is, ha kreatívak vagyunk, viszont nem tudunk kottázni, hangszeren játszani és az énekhangunkkal sem vagyunk kibékülve. A YouTube posztja szerint ez a jövőt jelenti abból a szempontból, hogy segíthetik a művészeket és az alkotókat képzeletük kibontakoztatásában, valamint kreatív folyamataik bővítésében, a rajongók közelebb kerülhetnek kedvenceikhez, továbbá mindez a technológia fejlesztésében is nagy hasznot hozhat.
Emellett persze elismerték, hogy ennek a munkának még a kezdeti fázisában járnak, ami főként azért fontos, mert tisztában vannak azzal, hogy ez a technológia nagy kockázatokat is rejt magában, de elkötelezettek a zenei partnerekkel való együttműködés mellett. Ehhez hozzátették azt is, hogy szeretnének olyan eszközöket alkotni, amelyek bátor és felelősségteljes módon adnak lehetőséget a művészeknek.