Czy niedługo AI stworzy płytę roku?
Utwór „Heart on My Sleeve” pojawił się na różnych platformach muzycznych w kwietniu 2023 roku. Miejscem premiery był TikTok, a autorem użytkownik o pseudonimie Ghostwriter977. Początkowo słuchacze przypuszczali, że kryje się pod nim Drake lub The Weeknd, jednak w rzeczywistości to nie oni byli twórcami hitu, który zyskał miliony odsłon. Zatem kto? Lub co?
Muzyka, jako wyraz ludzkiej kreatywności, znajduje się obecnie na rozdrożu. Eksperymenty nad jej generowaniem przy użyciu sieci neuronowych czy algorytmów opartych na głębokim uczeniu są coraz bardziej obiecujące. Jednak ze względu na pewne ograniczenia, generowanie muzyki okazuje się być większym wyzwaniem niż produkowanie treści w formie tekstowej czy graficznej.
Czy te trudności będą możliwe do pokonania w najbliższych latach? Czy GenAI (generatywna sztuczna inteligencja) pozwoli na tworzenie muzyki, która niczym nie będzie się różnić od tej „ludzkiej”?
Krótka historia zastosowania AI w muzyce
Mimo że początki wykorzystania sztucznej inteligencji do komponowania muzyki sięgają XX wieku, to dopiero znaczny rozwój uczenia maszynowego w ostatnich latach otworzył przed nami szerokie możliwości.
Powstały projekty badawcze, które dzięki zastosowaniu algorytmów głębokiego uczenia, umożliwiły tworzenie muzyki skuteczniej niż kiedykolwiek wcześniej.
Przykładami takich projektów może być Google Magenta, który w 2016 roku zasłynął z pierwszej dotąd melodii fortepianowej wygenerowanej przy użyciu AI, czy też Flow Machines, przy użyciu którego stworzono utwór „Daddy’s Car” inspirowany piosenkami grupy The Beatles. Później pojawiło się wiele innych projektów, takich jak MuseNet od OpenAI czy Jukedeck, które poszerzają granice generowanej przez sztuczną inteligencję muzyki. Firmy, takie jak Jukedeck czy Amper Music, opracowały systemy sztucznej inteligencji zdolne do generowania muzyki bez tantiem do różnych celów, takich jak muzyka w tle do filmów czy reklam.
Te systemy wykorzystują algorytmy i uczenie maszynowe do analizy pożądanego nastroju, tempa i gatunku, a następnie generują unikalną kompozycję, spełniającą kryteria.
Technologia generowania muzyki przy użyciu sztucznej inteligencji znalazła zastosowanie w przemyśle muzycznym. Artyści i producenci korzystają teraz z narzędzi opartych na sztucznej inteligencji, aby wspomagać proces twórczy. Spójrzmy na „MuseNet” od OpenAI. To model głębokiego uczenia, który może generować kompozycje wieloinstrumentalne w różnorodnych stylach, umożliwiając muzykom eksperymentowanie z różnymi pomysłami i odkrywanie nowych możliwości.
Hit stworzony przez AI
Wspomniany wcześniej przebój „Heart on My Sleeve”, przypisywany zarówno Drake’owi, jak i The Weekndowi szybko zdobył miliony wyświetleń, stając się medialnym zjawiskiem. Jak się jednak okazało, utwór ten nie był rezultatem współpracy ludzi, lecz powstał przy użyciu sztucznej inteligencji. Jego jakość okazała się imponująca, doskonale odzwierciedlając charakterystyczne głosy obu artystów [niestety film jest obecnie niedostępny – przyp. red.].
Stosunek muzyków do sytuacji nie był pozytywny. Drake jasno wyraził swoje niezadowolenie, mówiąc: „This is the last straw” (w tłumaczeniu na j. polski: „Kropla przelała czarę goryczy”). W tym kontekście oznacza to, że raper nie zamierza pozwolić, aby tak wyglądała przyszłość branży muzycznej.
Opinię wygłosił także dyrektor generalny Recording Academy, Harvey Mason Jr., po tym, jak autor utworu zgłosił go do dwóch kategorii nagród Grammy kilka miesięcy później. Odrzucił on możliwość zakwalifikowania się piosenki ze względu na podszywanie się pod muzyków i brak powszechnej dystrybucji. Na ten moment były to dla niego jedynie powody odrzucenia utworu. Mason zaznaczył, że technologia szybko ewoluuje, wymagając adaptacji, ale jednocześnie podkreślił konieczność ochrony twórców i artystów. Z jego niejednoznacznej wypowiedzi można wysnuć przypuszczenia, że możliwość zdobycia nagrody Grammy przez utwór stworzony przy użyciu sztucznej inteligencji jest w jakimś stopniu realna.
„Heart on My Sleeve” nie jest jedynym przykładem tego typu wysokiej jakości produkcji. W sieci można natrafić nawet na kompozycje zawierające wokale już nieżyjących muzyków, takich jak choćby Chester Bennington z zespołu Linkin Park.
Popularność muzyki generowanej przy użyciu sztucznej inteligencji w ostatnich latach wywołała wiele pytań dotyczących jej charakteru etycznego, które na pewno wymagają dodatkowych regulacji prawnych. Universal Music Group kontrolując jedną trzecią branży muzycznej na świecie, domaga się blokowania przez platformy streamingowe, takie jak Spotify, utworów wygenerowanych przy użyciu AI.
Jak tworzy się modele generujące muzykę?
Do stworzenia konkretnego modelu generatywnej sztucznej inteligencji, potrzebne są zaawansowane algorytmy, techniki analizy oraz duży i jakościowy zbiór danych zawierający muzykę i informacje o niej. To głównie od ich wyboru zależą rezultaty tworzonego oprogramowania. Model dobierany jest w procesie uczenia, który przebiega w kilku krokach.
Na początku zbiór danych istniejącej muzyki jest wprowadzany do programu, który dzięki technologii uczenia maszynowego analizuje wzorce i struktury muzyczne. Następnie bazując na różnych elementach muzycznych, takich jak harmonia, melodia, rytm czy tempo, generuje się nowe kompozycje muzyczne, zachowując jednocześnie pewne podobieństwo do pierwotnych utworów.
Następnie ocenia się rezultaty pracy takiego modelu, korygując go w celu poprawy jakości. W tym procesie wykorzystywane są różne techniki, takie jak głębokie uczenie przy użyciu sieci neuronowych, algorytmy genetyczne oraz systemy oparte na regułach. Wybór konkretnej techniki zależy od celów i ograniczeń projektu.
Opisane etapy powtarza się, za każdym razem podejmując decyzje o zmienianych parametrach modelu aż do momentu, w którym wyniki okażą się zadowalające.
Z jakimi wyzwaniami i ograniczeniami spotyka się tworzenie muzyki z użyciem GenAI?
Mimo że generowanie muzyki przez GenAI przynosi innowacyjne rezultaty, istnieją również wyzwania związane z kreatywnością oraz oceną estetyczną, co sprawia, że muzyka wygenerowana przez AI wymaga dalszej interakcji i oceny ze strony człowieka.
Wykorzystanie sztucznej inteligencji do tworzenia muzyki, mimo ogromnego potencjału tej technologii, niesie ze sobą pewne ograniczenia. Krytyka w tym kierunku często dotyczy nadmiernej zależności od dostarczonych danych, co może prowadzić do braku oryginalności i kreatywności. Stworzone w ten sposób kompozycje opierają się na istniejących już wzorcach muzycznych.
Sztuczna inteligencja wykazuje trudności w wyrażaniu emocji, co skutkuje brakiem głębi uczuć i ludzkiej więzi w generowanych utworach.
Często też muzyka ma nieść za sobą historię i doświadczenie życiowe wykonawcy, co jest niemożliwe w przypadku AI.
Pojawiają się także wątpliwości etyczne związane z prawami autorskimi i własnością utworów wygenerowanych przez AI, co stawia pytania dotyczące etyki tworzenia muzycznego przy użyciu tej technologii. Dane używane przez sztuczną inteligencję do generowania utworów często stanowią syntezę twórczości wielu artystów, co sugeruje, że może to być pewnego rodzaju kradzież intelektualna.
Warto zauważyć, że mimo tych wyzwań, istniejące korzyści z zastosowania sztucznej inteligencji w tworzeniu muzyki podkreślają jej potencjał do wzbogacenia krajobrazu muzycznego. Należy spojrzeć na tę technologię jako możliwość rozszerzenia horyzontów w branży muzycznej, zamiast traktować ją jako substytut.
Przyszłość muzyki generowanej przez AI
Z uwagi na to, że proces generowania muzyki poprzez AI stale ewoluuje i staje się popularny, warto zwrócić uwagę na to, jak może to wpłynąć na przyszłość różnych obszarów.
Wchodzimy obecnie w erę, w której sztuczna inteligencja nie tylko rewolucjonizuje kompozycję muzyczną, ale także umożliwia eksplorację zróżnicowanych doświadczeń sensorycznych i wprowadza innowacje techniczne w świecie dźwięku.
Branża muzyczna może w ten sposób skupić się na tworzeniu treści będących połączeniem sfery cyfrowej i fizycznej. Już otwiera się wiele wystaw immersyjnych, takich jak Strefa Mastercard Music w warszawskim Melt Museum, gdzie odwiedzający mogą remiksować muzykę swoimi ruchami i obecnością. A są to dopiero początki.
Innym obszarem rozwoju są narzędzia AI wykorzystywane przez artystów, w tym wtyczki używane w programach do produkcji i postprodukcji dźwięku. Śmiało można dać za przykład najnowsze wersje iZotope Neutron czy iZotope Ozone, które wspierają użytkowników podczas miksowania i masterowania nagrań audio.
Na jakim etapie się znajdujemy?
GenAI dostarcza innowacyjnych rozwiązań, które inspirują artystów i wprowadzają nowe doświadczenia dla słuchaczy.
Pomimo obiecujących rezultatów, technologia ta napotyka wyzwania związane z kreatywnością, oceną estetyczną i aspektami etycznymi, zwłaszcza dotyczącymi praw autorskich. Jednak niektóre z tych ograniczeń są tymczasowe i istnieje przekonanie, że wchodzimy w erę renesansu muzycznego, gdzie GenAI może stanowić integralną część świata muzycznego.
Pytanie o to, czy AI stworzy płytę roku, pozostaje otwarte. Ostateczny werdykt będzie zależał od krytyków muzycznych i opinii publicznej.