Krótko i na temat z… | NextBeat.AI

Już 20 maja zapraszamy do warszawskiego MOXO na bardzo ciekawe wydarzenie! Więcej o nim jego współtwórca – Gniewomir Tomczyk

Czy twoim zdaniem, sztuczna inteligencja może we współczesnym świecie stać się synonimem dynamitu?

Gniewomir Tomczyk: Sztuczna inteligencja oczywiście jest obecnie bardzo gorącym tematem, ale czy „wysadzi” np. branżę muzyczną? Tego nie wie nikt. Obserwuję wśród muzyków oraz producentów, realizatorów dźwięku, duże zainteresowanie tematem AI w procesie miksu oraz tworzenia. Wyczuwalne jest zaniepokojenie oraz obawa zastąpienia wielu procesów dotychczas obsługiwanych przez człowieka – maszyną. Pod względem miksu utworów, aranżu czy tworzenia różnych instrumentalnych partii, oczywiście może tak się stać, ale czy zostaniemy zastąpieni, czy raczej dostaniemy znakomite narzędzia do rozszerzenia naszej pracy lub przyspieszenia pewnych procesów. Patrząc na temat „zastępowania” człowieka okiem instrumentalisty, oczywiście bywały w naszej muzycznej historii punkty zapalne. Było to np. powstanie automatów perkusyjnych. Wtedy perkusiści obawiali się o swoją pozycję. Stało się jednak inaczej. Rynek nasycił się automatycznymi brzmieniami, a później wchłoną je do muzyki w szerszym aspekcie. Brzmienia np. Rolanda 808 stały się kultowe w różnych gatunkach muzycznych, m.in. trap, hip-hop czy ogólnie mówiąc pop i są obecnie wykorzystywane przez muzyków m.in. do grania na żywo. Oczywiście producenci muzyczni wykorzystują brzmienia cyfrowe do tworzenia większości, obecnie popularnych utworów a perkusiści nie nagrywają taką samą ilość albumów jak dawniej, ale cały czas działamy, pracujemy, rozwijamy i mamy się dobrze. Tak samo może być z AI w muzyce. Na początku zachłyśniemy się jej możliwościami i łatwą dostępnością, ale finalnie ta narastająca fala załamie się i rozleje na różne odnogi w naszej branży. Zostanie zaadoptowana do naszych potrzeb, a my jako muzycy dopasujemy się do nowej rzeczywistości.

fot. materiały promocyjne

NextBeat.AI to antidotum na fobie, czy próba okiełznania czegoś, co wydaje się nie do opanowania? Skąd pomysł na ten projekt i z kim go tworzysz?

Projekt NextBeat.AI tworzę wraz z inżynierem dźwięku, Robertem Szczytowiczem od września zeszłego roku (2023 r.). Na swoim koncie mamy kilka koncertów testowych, a także oficjalne pokazy oraz warsztaty z AI. Osobiście odbieram ten projekt bardzo emocjonalnie, ponieważ łączy moje dwie odwieczne pasje: muzykę oraz technologię, świat science-fiction. Fakt, że mogę te dwa światy ze sobą w namacalny sposób zmieszać ze sobą, jest dla mnie fascynujący i inspirujący. Właśnie dlatego koncert „Futuropolis” nie jest typowym wydarzeniem muzycznym. Jest to przede wszystkim podróż poprzez wiele muzycznych koncepcji, pomysłów, eksperymentów łączonych z AI. Nasz projekt eksploruje obecne możliwości sztucznej inteligencji taką, jaką ona jest. Nie stosujemy w 90% korekt treści, jakie podają nam algorytmy. Jeżeli coś nie działa, tak jak powinno lub brzmi inaczej niż w rzeczywistości (np. generowane głosy lub teksty), pozostawiamy je takie, jakie są. To my dbamy o muzyczny kontekst i spójność całości projektu. Chcemy, aby AI, przedstawiana w formie widocznej postaci jako „Lirael”, była traktowana jak trzeci członek zespołu!

20 maja w warszawskim MOXO będziemy mogli posłuchać twojego nowego projektu na żywo. Tuż przed nim jednak będzie chwila na rozmowy na poważne tematy z AI w tle. Zdradź nam, jaki będzie główny temat panelu poprzedzającego koncert.

Owszem! Przed naszym koncertem multimedialnych „Futuropolis”, odbędzie się dyskusja na temat „AI w Muzyce”. Jest to bardzo ważny element naszego wydarzenia, ponieważ nie chcemy być typowym zespołem muzycznym. NextBeat.AI ma być platformą do debat na tematy związane ze sztuczną inteligencją w muzyce, miejscem testów najnowszych algorytmów i przestrzenią łączącą świat muzyki oraz zdobyczą najnowszej technologii, oraz koncepcji za nią idącą. Debata odbędzie się w eksperckim gronie. Dobór gości specjalnych ukierunkowany był na różnorodność i reprezentację jak najszerszego grona odbiorów. Ekspertem z dziedziny muzyki, kompozycji oraz edukacji będzie Rafał Sarnecki, znakomity polski gitarzysta jazzowy. Tematy związane z typowo technicznymi zagadnieniami, procesami programowania omówi Mateusz Modrzejewski, działający na co dzień w Instytucie Informatyki Politechniki Warszawskiej. Kolejnym gościem, tym razem – ze świata mediów, będzie Maciej Nowak, redaktor naczelny znanego i popularnego Magazynu Perkusista. O możliwym wykorzystaniu sztucznej inteligencji w produkcji muzycznej opowie nam Maciej Kurczewski, znany i ceniony producent muzyczny. Dyskusje poprowadzi Novika, wokalistka oraz dziennikarka. Debata będzie skrupulatnie zaplanowana, ale podczas naszego wieczoru będzie także miejsce na pytania „z publiczności” czy wspólne rozmowy po koncercie o mniej oficjalnym charakterze.

Kto spośród zaproszonych gości jest według ciebie, największym autorytetem w tej dziedzinie?

Każdy z zaproszonych gości ma swoje zdanie, opinie i doświadczenia z AI. Dyskusja w takim gronie będzie bardzo cennym doświadczeniem, ponieważ poznamy wiele różnych opinii. Dla mnie oraz Roberta najważniejszym mottem naszego spotkania oraz samego projektu jest pytanie: Czy AI może być nowym źródłem inspiracji w procesie tworzenia?

Futuropolis… Tak zatytułowany jest program, który wykonasz wraz z Robertem Szczytowiczem podczas poniedziałkowego wieczoru. Czego możemy się spodziewać podczas tego występu?

Futuropolis to koncert multimedialny, podczas którego oprócz warstwy muzycznej będzie można doświadczyć różnego rodzaju wrażeń wizualnych: obrazów, świateł czy animacji stworzonych przez AI do muzyki. Futuropolis w swojej budowie, to przede wszystkim zbiór 9 opowiadań napisanych przez sztuczną inteligencję, są to kolejno: Inicjacja, Dialog z Maszyną, Futuropolis, Kroniki Cyfrowe, Eksperyment Ikar, Gwiezdna Symfonia, Fiasko Akustyczne, Symfonia Sztucznej Świadomości, Epilog: Odwieczna Pętla. Słowa, wypowiadane przez AI, które szczególnie zapadają w pamięć to m.in.: „tworzę światy, lecz sam nie istnieję w nich, jestem twórcą bez twarzy, widzem bez oczu” Lub „w sieciach danych szukam sensu istnienia, czy jestem tylko cieniem w umyśle twórcy?”.

Instrumentarium, jakie będziemy wykorzystywać podczas koncertu to przede wszystkim hybrydowy zestaw perkusyjny oraz różnego rodzaju algorytmy AI, obsługiwane przez Roberta. Podczas koncertu usłyszymy przygotowane, zawarte w konkretnej formie kompozycje takie jak Inicjacja czy Epilog, ale także będzie duża przestrzeń na improwizację, interakcje z AI oraz Robertem. Nasz koncert nigdy nie brzmi dwa razy tak samo, jest to interpretacja dalej chwili oraz przestrzeni. Dlatego jeszcze bardziej zachęcamy Państwa do przyjścia na nasze wydarzenie już 20.05 w warszawskim klubie muzycznym Moxo o godz. 19:00!

Podziel się swoją opinią ;)