Sztuczna inteligencja 3D

Najnowsze algorytmy mogą już zestawiać obrazy trójwymiarowe ze zwykłych obrazów o dwóch wymiarach. Pozwala to na stworzenie nowych możliwości w zakresie gier komputerowych, robotyki czy w oprogramowaniu samochodów autonomicznych.

Naukowcy zauważyli bowiem niedawno, że wprowadzenie wielkiej liczby obrazów do komputerowych algorytmów, mających odwzorowywać sposób reakcji ludzkich neuronów, powoduje wielki skok dokładności. Przełom ten spowodował lawinę kolejnych badań naukowych oraz zainteresowanie podmiotów komercyjnych. Niektóre firmy i branże szykują się na prawdziwą rewolucję. Nowy sposób, polegający na treningu sztucznej inteligencji w przekształcaniu obrazów płaskich w pełne obrazy trójwymiarowe, budzi zrozumiałe zainteresowanie zarówno wśród ekspertów zajmujących się grafiką komputerową, jak i specjalistów od sztucznej inteligencji. Technologia ma bowiem potencjał, by wywrócić do góry nogami branże: gier wideo, wirtualnej rzeczywistości, robotyki czy pojazdów autonomicznych.

Można się spotkać z opiniami ekspertów, którzy twierdzą, że postrzeganie w nowy sposób obrazów może pomóc maszynom w postrzeganiu świata i rozumowaniu w sposób nieco bardziej inteligentny, być może nawet – ludzki. Ken Goldberg, jeden z pracowników Uniwersytetu Kalifornijskiego w Berkley (jednej z instytucji naukowych, wykorzystujących technologię do zwiększania zdolności robotów w chwytaniu nieznanych im wcześniej przedmiotów), stwierdza wprost: „Jest bardzo gorąco, panuje ogromny szum”

Wg Goldberga technologia może mieć „setki zastosowań” w branżach tak odległych od siebie, jak rozrywka i architektura. Nowe podejście stosujące „renderowanie neuronowe” – wykorzystuje sieci neuronowe do przechwytywania i generowania pełnych obrazów 3D z kilku dwuwymiarowych migawek. Jest to znana wcześniej technika, powstała ma styku grafiki komputerowej i sztucznej inteligencji, ale prawdziwa eksplozja zainteresowania nią miała miejsce w roku 2020 , gdy naukowcy z Berkley i Google udowodnili, że sieci neuronowe mogą uchwycić fotorealistyczne sceny trójwymiarowe, oglądając po prostu kilka kolejnych obrazów 2D.

Algorytm wykorzystuje sposób rozchodzenia się światła w powietrzu i dokonuje obliczeń, ustalając gęstość i kolor punktów w przestrzeni trójwymiarowej. W ten sposób dochodzi do konwersji obrazów dwuwymiarowych w realistyczne obiekty 3D, które mogą być obserwowane z dowolnego punktu przestrzeni. Rdzeniem tej metody jest rodzaj sieci neuronowej, praktycznie identyczny ze stosowanym od roku 2012 algorytmem analizującym piksele w obrazie 2D. Jego nowa wersja zmienia piksele 2D w ich trójwymiarowy odpowiednik (woksele). Filmy, na których zarejestrowano metodę, nazwaną przez naukowców Neural Radiance Fields lub NeRF, zachwyciły społeczność badawczą. „Zajmuję się komputerową wizją od 20 lat, ale kiedy zobaczyłem ten film, pomyślałem„ Wow, to jest po prostu niesamowite ”- stwierdza Frank Dellaert, profesor Georgia Tech.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.