Mastodon
Zdjęcie okładkowe wpisu Adobe Project Music GenAI Control – muzyka generowana z tekstu

Adobe Project Music GenAI Control – muzyka generowana z tekstu

0
Dodane: 2 miesiące temu

Adobe to marka powszechnie znana w branży kreatywnej. Firma ogłosiła właśnie podczas wydarzenia Hot Pod na Brooklynie, że pracuje nad rozwiązaniem Project Music GenAI Control. Tak, chodzi o sztuczną inteligencję, generatywną oczywiście, ale nie generowanie obrazu czy wideo, lecz muzyki. Na podstawie opisów tekstowych.

Zaznaczam, na razie nie ma mowy o produkcie gotowym, to dopiero prototyp. Idea jest prosta: pomóc twórcom tworzyć i dostosowywać muzykę, bez posiadania profesjonalnego doświadczenia w pracy ze dźwiękiem. Czy to znaczy że dźwiękowcy i muzycy już mogą się pakować?

Nie podejmuję się odpowiedzi na to pytanie, w każdym razie Adobe Project Music GenAI Control ma generować muzykę na podstawie komunikatów tekstowych. Oprócz tego po wygenerowaniu możliwa będzie również edycja wygenerowanej ścieżki audio bez konieczności przełączania się na dedykowaną aplikację do edycji dźwięku.

Tworzenie muzyki na podstawie opisu tekstowego to przede wszystkim popis kreatywności AI, bo opisy mogą być tak lakoniczne jak np. „wesoły taniec”, albo „smutna melodia”. AI załatwi resztę. Owszem Adobe deklaruje, że pozostawi użytkownikom narzędzia, które pozwolą doszlifować efekt, by bardziej spełniał ich oczekiwania, np. zmiana tempa, struktury utworu, itp. Co więcej, AI ma być również zdolna do generowania zapętlonych próbek do dalszej edycji i tworzenia remiksów. Zatem skoro AI sama nie tworzy remiksów, to być może jest jeszcze jakaś nadzieja dla muzyków i dźwiękowców.

Według Adobe narzędzie ułatwi również rozwiązywanie problemów typu „ścieżka audio jest za krótka do przygotowanego wideo”, czyli AI generatywnie bez sztucznego zwalniania tempa czy rozciągania utworu, podkład muzyczny może być dopasowany do czasu trwania projektu. Jak będzie wyglądać interfejs narzędzia opracowywanego przez Adobe? Cóż, tego nie wie nikt, projekt jest na takim etapie, że prawdopodobnie samo Adobe nie dysponuje jeszcze stosownymi mockupami UI, którymi mogłoby i chciałoby się pochwalić. Ba, ogłoszonego przez Adobe projektu nie ma (sprawdziłam) nawet na witrynie Adobe Labs.

Pomysł Adobe z generatywną AI tworzącą muzykę nie jest nowy, bo podobne projekty ma również Google (Google MusicLM), czy Meta (AudioCraft). Jednak modele Google’a i Mety nie umożliwiają (w obecnym stadium) żadnej edycji wygenerowanego dźwięku. W przypadku Adobe ma być inaczej. Jednak słowo klucz: ma być. Jak będzie? To się okaże.

 

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .