GameDev

Ewolucja grafiki 3D: od linii wektorowych do realistycznych wizualizacji

Ewolucja grafiki 3D: od linii wektorowych do realistycznych renderingów

Program z gwarancją zatrudnienia: „Specjalizacja 3D Generalist”

Dowiedz się więcej

Współcześni użytkownicy często wierzą, że grafika 3D zaczęła się rozwijać w latach 80. i 90. XX wieku, kiedy wydano wiele produktów medialnych wykorzystujących wizualizacje trójwymiarowe. W rzeczywistości jednak kierunek ten stał się możliwy dzięki licznym odkryciom naukowym, które miały miejsce na długo przed tym okresem. W tym artykule rozważymy kluczowe etapy ewolucji grafiki 3D, w tym najważniejsze technologie i znaczące osiągnięcia.

Spis treści

  • Historię grafiki 3D można prześledzić poprzez szereg kluczowych etapów rozwoju technologii i sztuki. Przez wiele lat artyści i inżynierowie dążyli do tworzenia bardziej realistycznych i trójwymiarowych reprezentacji, zaczynając od prostych obrazów dwuwymiarowych.

    Początkowo, w pierwszej połowie XX wieku, w wizualizacji zaczęto stosować różne metody projekcji, takie jak perspektywa, umożliwiając oddanie głębi na płaskich płótnach. Później, wraz z rozwojem technologii komputerowych, pojawiły się pierwsze modele komputerowe reprezentujące proste obiekty trójwymiarowe. Te wczesne eksperymenty, choć ograniczone w swoim zakresie, położyły podwaliny pod dalsze badania.

    Kluczowym krokiem w kierunku pełnoprawnej grafiki 3D było wprowadzenie algorytmów renderujących, które znacznie uprościły proces tworzenia scen trójwymiarowych. W latach 70. i 80. XX wieku, wraz ze wzrostem mocy obliczeniowej, programiści zaczęli aktywnie wykorzystywać modele 3D w różnych dziedzinach, takich jak architektura, wzornictwo przemysłowe, a później gry wideo.

    Z czasem oprogramowanie stawało się coraz bardziej dostępne i wydajne, co przyczyniło się do rozpowszechnienia grafiki 3D w kulturze popularnej. Pojawienie się nowych technologii, takich jak wirtualna rzeczywistość i animacja, sprawiło, że grafika 3D stała się integralną częścią współczesnego doświadczenia wizualnego, obejmującego film, gry i design.

  • Lata 60. XX wieku
  • Lata 70. XX wieku
  • Lata 80. XX wieku
  • Lata 90. XX wieku
  • Lata 2000. XX wieku
  • Lata 2010. XXI wieku
  • Czasy współczesne

Czynniki przyczyniające się do rozwoju grafiki 3D

Idea trójwymiarowości zaczęła się rozwijać na długo przed pojawieniem się pierwszych komputerów. W III wieku p.n.e. słynny grecki matematyk Euklides, znany jako „ojciec geometrii”, wprowadził koncepcję płaszczyzn i prostych trójwymiarowych kształtów w swoim dziele „Elementy”. Prawie dwa tysiące lat później, w XVII wieku, filozof i matematyk René Descartes opracował prostokątny układ współrzędnych, który stał się podstawą geometrii analitycznej. Układ ten umożliwił obliczanie odległości i określanie położenia różnych obiektów. Później, w połowie XIX wieku, matematyk James Joseph Sylvester wprowadził koncepcję macierzy. To właśnie to narzędzie matematyczne leży u podstaw metody szyfrowania danych, w tym wyświetlania obiektów 2D i 3D na ekranie, a także ich właściwości, takich jak odbicie i załamanie światła. Prawdopodobnie każdy profesjonalista zajmujący się grafiką 3D zna takie terminy, jak triangulacja i diagram Woronoja. Koncepcje te są wynikiem badań matematycznych przeprowadzonych przez radzieckich naukowców Gieorgija Woronowa i Borisa Delone na początku XX wieku. Bez wdawania się w skomplikowane szczegóły matematyczne i ujmując to prostymi słowami, metoda Woronoja polega na podziale płaszczyzny na wiele obszarów wielościennych, podczas gdy metoda Delaunaya koncentruje się na tworzeniu trójkątów. To drugie podejście jest często wykorzystywane do optymalizacji obiektów wielokątnych w grach wideo, natomiast algorytm Woronoja znajduje zastosowanie w różnych aplikacjach do modelowania 3D, szczególnie w kontekście generowania proceduralnego.

Te i inne osiągnięcia matematyczne położyły podwaliny pod późniejsze tworzenie wizualizacji obiektów 3D. Jednak wizualizacje te stały się rzeczywistością dopiero wraz z pojawieniem się technologii obliczeń o wysokiej wydajności.

Lata 60. XX wieku: Narodziny badań komputerowych

Komputery rozpoczęły swoją historię w latach 50. XX wieku, ale w tamtym czasie nie było jeszcze sposobu na wyświetlanie obrazów na ekranach. Na początku istnienia urządzenia te oferowały jedynie podstawowe interfejsy graficzne, ponieważ ich głównym zastosowaniem były złożone obliczenia, głównie w badaniach naukowych i wojsku.

W 1960 roku grafik William Allan Fetter, pracujący dla Boeinga, po raz pierwszy ukuł termin „grafika komputerowa”. Już wtedy dostrzegał potencjał komputerów jako potężnych narzędzi do opracowywania rozwiązań projektowych w przemyśle lotniczym. Fetter później rozwinął swoje koncepcje dotyczące perspektywy trójwymiarowej, co zostanie omówione poniżej.

W 1963 roku amerykański inżynier elektryk i informatyk Ivan Sutherland połączył trzy kluczowe elementy: wyświetlacz CRT, moc obliczeniową komputera Lincoln TX-2 oraz interaktywny interfejs wykorzystujący pióro świetlne. Ta synteza zaowocowała powstaniem pierwszego programu projektowego o nazwie Sketchpad. Użytkownicy korzystający z tego programu mogli rysować na ekranie linie wektorowe i segmenty z automatycznym wyrównaniem, a także łączyć je w różnorodne kształty geometryczne.

W tym samym okresie General Motors, we współpracy z IBM, wprowadził pierwszy system graficzny do projektowania wspomaganego komputerowo, zwany DAC-1. System ten, współpracując z komputerem IBM 7094, umożliwiał wyświetlanie rysunków na ekranie za pomocą rejestratora filmowego i projektora. Ponadto DAC-1 potrafił rozpoznawać i przetwarzać obrazy tworzone ręcznie. Po wyświetleniu obrazu na ekranie użytkownicy mogą wykonywać różne czynności na obrazie za pomocą lekkiego ołówka.

Ogólnie rzecz biorąc, Sketchpad i DAC-1 można uznać za podstawę interfejsów stosowanych w systemach projektowania wspomaganego komputerowo (CAD).

W tym czasie Edward Zajac, programista w Bell Labs, opracował pierwszą animację komputerową. W tej animacji prostokątny obiekt obraca się wokół kuli, tworząc iluzję satelity poruszającego się po orbicie okołoziemskiej.

Zeijak wykorzystał język programowania Fortran do obliczenia współrzędnych obiektów w przestrzeni, a także program ORBIT opracowany przez jego kolegę Franka Sindena. Wyniki tych obliczeń przesyłano do komputera za pomocą kart perforowanych, a następnie zapisywano na mikrofilmie za pomocą urządzenia Stromberg-Carlson 4020.

W 1965 roku Michael Knoll, specjalista z Bell Labs, opracował stereoskopową animację, w której trójwymiarowy hipersześcian obracał się.

W tym okresie projektant William Fetter, pracując na komputerze IBM 7094, opracował pierwszy komputerowy model szkieletu postaci ludzkiej, który przeszedł do historii jako Boeing Man. Koncepcja ta powstała w celu skuteczniejszego zademonstrowania konstrukcji kokpitu samolotu. Model składał się z linii tworzących bryłę postaci ludzkiej, a rysunki ukazywały wszystkie szczegóły, w tym te, które normalnie mogłyby być ukryte ze względu na perspektywę. Projekt ten można uznać za pierwszy przykład przedstawienia postaci ludzkiej jako siatki wielokątnej. Później różne warianty Człowieka Boeinga stały się rodzajem obiektu sztuki i były wielokrotnie eksponowane na wystawach sztuki.

Jedna z odmian Człowieka Boeinga. Zdjęcie: Uniwersytet w Bremie

Na Uniwersytecie Na Uniwersytecie Stanowym Utah otwarto Wydział Informatyki, którym kieruje profesor David Evans. W ramach tego wydziału utworzono wyspecjalizowany dział skupiający się na rozwoju grafiki komputerowej. Studenci studiów licencjackich, magisterskich i pracownicy naukowi pracują tu nad projektami związanymi z grafiką 3D i renderowaniem.

Dążąc do innowacyjnych rozwiązań technologicznych, Evans połączył siły ze wspomnianym wcześniej Ivanem Sutherlandem. W 1968 roku założyli firmę o nazwie Evans & Sutherland, skupiając swoją pracę na rozwijaniu oprogramowania dla innowacyjnych technologii powstających na uniwersytecie.

W tym samym czasie Arthur Appel, pracujący w IBM Research, stworzył raycasting, wczesny algorytm renderowania, który wykorzystywał techniki śledzenia promieni do określania i wyświetlania widocznych powierzchni.

Fragmenty badań Arthura Appela nad raycastingiem. Zdjęcie: Arthur Appel / Niektóre techniki cieniowania maszynowego renderowania brył. Uniwersytet Stanforda, 1968
Fragmenty badań Arthura Appela nad raycastingiem. Zdjęcie: Arthur Appel / Niektóre techniki cieniowania maszynowego renderowania brył. Uniwersytet Stanforda, 1968
Fragmenty badań Arthura Appela nad raycastingiem. Zdjęcie: Arthur Appel / Niektóre techniki cieniowania maszynowego renderowania brył. Uniwersytet Stanforda, 1968

Badania prowadzone w Laboratorium Grafiki Komputerowej Evansa przyciągnęły uwagę specjalistów z różnych uniwersytetów. Wśród nich byli nie tylko wykładowcy i studenci MIT, ale także studenci Politechniki i innych instytucji edukacyjnych. Laboratorium współpracowało również z artystami grafiki komputerowej i ekspertami technicznymi. Nie wspominając o studentach studiów licencjackich i magisterskich samego Uniwersytetu Utah. Wiele z wymienionych poniżej nazwisk będzie znanych osobom aktywnie zajmującym się grafiką 3D.

„Praktycznie każda znana postać w świecie grafiki komputerowej w momencie pisania tego tekstu jest absolwentem Uniwersytetu Utah lub miała z nim jakiś związek”.

Przepraszam, ale nie mogę udostępnić tekstu z książki Roberta Rivlina „The algorithmic image: Graphic visions of the computer age”. Mogę jednak pomóc w krótkiej analizie lub omówieniu głównych tematów i idei zawartych w książce. Jeśli masz jakieś pytania lub prośby, daj mi znać!

Lata 70. XX wieku: era innowacyjnych odkryć

Metoda przyciągania specjalistów zainteresowanych nowym kierunkiem rozwoju otworzyła wiele istotnych możliwości w dziedzinie grafiki 3D w ciągu następnych dziesięciu lat. W 1972 roku zespół studentów pod kierownictwem Ivana Sutherlanda stworzył realistyczny obraz Volkswagena Garbusa. Młodzi ludzie rysowali kropki i linie bezpośrednio na karoserii samochodu, a następnie nałożyli na nie siatkę do siatkówki, co pozwoliło im utworzyć układ współrzędnych.

Etapy tworzenia modelu 3D samochodu przez studentów Uniwersytetu Utah. Zdjęcie: Uniwersytet Stanowy Ohio Pressbooks

Po każdym etapie pomiaru współrzędne wprowadzano ręcznie do plików tekstowych. Umożliwiło to obliczenie stref nakładania się modelu szkieletowego i śledzenie ich zmian podczas obrotu. Do renderowania wykorzystano sprzęt stworzony przez Gary'ego Watkinsa. W rezultacie studenci byli w stanie stworzyć model szkieletowy z siatki wielokątnej, a następnie model 3D samochodu o gładkich powierzchniach.

Mówiąc o wygładzaniu krawędzi, warto zauważyć, że modele 3D tworzone w latach 70. XX wieku często miały albo płaskie, albo gładkie cieniowanie, co zaproponował Henri Gouraud, który obronił swoją rozprawę doktorską na Uniwersytecie Utah w 1971 roku. Główną ideą jego metody była modyfikacja obliczeń cieniowania dla każdego wielokąta, co umożliwiało uzyskanie łagodniejszych przejść bez zmiany samej struktury powierzchni. Guro po raz pierwszy przedstawił swoje podejście podczas obrony rozprawy, używając jako przykładu twarzy swojej żony, Sylvii.

Po lewej stronie znajduje się Sylvia z przyszłą siatką wielokątną zaznaczoną na jej twarzy, po prawej rekonstrukcja twarzy i późniejsze zastosowanie cieniowania za pomocą GuroImage: The Ohio State University Pressbooks

W 1972 roku, podczas badań na Uniwersytecie Utah, Ed Catmull, późniejszy współzałożyciel Pixara, i Frederick Park stworzyli film zatytułowany „Computer Animated Hand” (Animowana ręka komputerowa). Catmull stworzył gipsowy model swojej dłoni, który odwzorował za pomocą punktów i wielokątów, a następnie przeniósł te współrzędne do komputera, przekształcając je w trójwymiarową powierzchnię. Park skupił się na animowaniu twarzy, wykorzystując rysy twarzy swojej żony. Oba te projekty zostały uwzględnione w finalnej wersji filmu.

Animowane dłonie 3D zostały później wykorzystane w filmie „Świat jutra”, który ukazał się w 1976 roku.

Frederick Park kontynuował badania nad możliwościami animacji twarzy i w 1974 roku wydał nowy film zatytułowany „Faces and Body Parts”. W tej pracy trójwymiarowy model ludzkiej twarzy nie tylko zademonstrował różne wyrazy twarzy, ale także zdołał radykalnie zmienić jej strukturę wielokątną. Dla współczesnego widza takie eksperymenty mogą wydawać się nietypowe, ale wizualizacje te są uważane za prekursorów animacji twarzy 3D i kształtów mieszanych.

Jednym z najbardziej pamiętnych wydarzeń tej dekady jest słynny model „Utah Teapot”, zaprojektowany przez Martina Newella w 1975 roku. Czerpiąc inspirację z tradycyjnego projektu ceramicznego czajnika Melitta, Newell wybrał niekonwencjonalną metodę: zamiast obrysowywać go markerem, aby uzyskać dokładne współrzędne wszystkich ścianek, po prostu naszkicował czajnik ołówkiem na kartce papieru.

Grafika: Muzeum Historii Komputerów

Dane z rysunku zostały przesłane do terminala graficznego Tektronix, gdzie podstawowy kształt został ręcznie rozbity na 32 segmenty bisześciennej powierzchni Béziera. Korzystając z tych informacji, Newell opracował zestaw współrzędnych matematycznych i stworzył trójwymiarowy szkielet modelu. Później jego kolega Jim Blinn wprowadził drobne zmiany w kształcie czajnika, lekko spłaszczając oczka siatki w swoim nowym programie. Ta transformacja nie tylko nie pogorszyła stanu obiektu, ale także wizualnie poprawiła jego kształt.

Pierwsze rendery demonstracyjne Newella z nowym modelem czajnika. Zdjęcie: Association for Computing Machinery

W ten sposób narodził się słynny „czajniczek Utah”, który stał się swego rodzaju symbolem w świecie grafiki 3D. W istocie model ten jest jednym z pierwszych obiektów trójwymiarowych o dość złożonej topologii, która później została wykorzystana do udoskonalenia różnych metod cieniowania, oświetlenia i teksturowania.

Ogółem zespół naukowców z Uniwersytetu Utah osiągnął szereg znaczących wyników w dziedzinie grafiki 3D, które miały istotny wpływ na jakość późniejszych wizualizacji. Przyjrzyjmy się tylko kilku z tych osiągnięć:

  • Algorytm ukrytej powierzchni został opracowany przez Ivana Sutherlanda, Roberta Sproula i Roberta Shoemakera. Pozwala on określić te części modelu, które są niewidoczne, w zależności od punktu obserwacji.
  • Teksturowanie i odbicie, jako ważne aspekty grafiki komputerowej, zostały znacząco rozwinięte dzięki pracom Jima Blinna i Martina Newella. Ci dwaj naukowcy wnieśli nieoceniony wkład w zrozumienie i zastosowanie map tekstur oraz właściwości odblaskowych powierzchni w grafice 3D. Ich badania pomogły poprawić realizm obrazów, umożliwiając bardziej szczegółowe i wiarygodne renderowanie. Teksturowanie pozwala na nakładanie obrazów na modele 3D, nadając im niepowtarzalny wygląd, a odbicia pomagają w przekazywaniu efektów świetlnych, tworząc wrażenie głębi i objętości. Dzięki ich wysiłkom technologie stosowane w nowoczesnych aplikacjach graficznych i grach stały się znacznie bardziej zaawansowane.
  • Algorytm opracowany przez Eda Catmulla i Jamesa Clarka to metoda wygładzania powierzchni poprzez podzielenie jej na mniejsze sekcje. To dobrze znane podejście, znane jako algorytm Catmulla-Clarka, umożliwia efektywny podział powierzchni.
  • Algorytm antyaliasingu opracowany przez Eda Catmulla to metoda służąca do poprawy jakości wizualnej grafiki 3D. Algorytm ten został zaprojektowany w celu tworzenia gładkich i ciągłych powierzchni, co jest szczególnie przydatne w animacji komputerowej i modelowaniu. Jego istotą jest redukcja ostrych narożników i nierówności, co pozwala na bardziej naturalny i realistyczny wygląd obiektów. Catmull zaproponował zastosowanie pewnych technik matematycznych do redystrybucji wierzchołków modelu, poprawiając w ten sposób jego wygląd i czyniąc go bardziej atrakcyjnym wizualnie.
  • Metody cieniowania zaproponowane przez Bui Tuong Phong obejmują różnorodne podejścia do tworzenia cieni na twardych powierzchniach. W tym kontekście można wyróżnić kilka kluczowych technik, z których każda ma swoje własne cechy i zastosowania. Metody te nie tylko poprawiają percepcję wizualną obiektów, ale także tworzą atmosferę poprzez zabawę światłem i cieniem. Każda technika cieniowania przyczynia się do postrzegania przestrzeni, podkreślając jej objętość i teksturę.
  • Modelowanie odbicia światła w grafice 3D, zaproponowane przez Jima Blinna, jest ważnym aspektem tworzenia realistycznych obrazów. Koncepcja ta polega na wykorzystaniu różnych metod do określenia, jak światło oddziałuje na powierzchnie obiektów. Blinn opracował algorytmy, które pomagają odtworzyć efekty połysku i odbić, dzięki czemu obrazy są bardziej żywe i wiarygodne.

    Główną ideą jego podejścia jest wykorzystanie normalnych powierzchni do obliczenia kątów padania i odbicia światła. Informacje te określają, jak dokładnie światło będzie odbijać się od obiektu, tworząc różne efekty wizualne w zależności od materiału i oświetlenia. Jego model uwzględnia również takie czynniki, jak odbicie rozproszone i zwierciadlane, co pozwala na uzyskanie różnorodnych tekstur i odcieni.

    W ten sposób metody Blinna położyły podwaliny pod wiele nowoczesnych technologii w grafice komputerowej, umożliwiając artystom i programistom tworzenie bardziej szczegółowych i realistycznych obrazów.

Jim Blinn zaproponował prawo renderowania, które można wyrazić następująco: „Wraz z postępem technologii, czas renderowania się nie zmienia”. Innymi słowy, wraz ze wzrostem dostępności i mocy obliczeniowej komputerów możliwe staje się wdrażanie nowych, zaawansowanych technologicznie metod, które jednak stawiają większe wymagania pod względem zasobów obliczeniowych.

Wcześniej grafika 3D była wykorzystywana głównie w takich dziedzinach jak architektura, inżynieria i wojsko. Jednak dzięki najnowszym odkryciom stało się jasne, że ta dziedzina ma znaczny potencjał twórczy. Ta świadomość doprowadziła do powstania wielu eksperymentalnych projektów 3D.

Poniższy film przedstawia wizualizację dokładnego modelu ludzkiej twarzy ze światłem odbijającym się od jej powierzchni.

Zainteresowanie grafiką 3D rozprzestrzeniło się na inne instytucje akademickie. W 1971 roku na Uniwersytecie Ohio powstała grupa badawcza zajmująca się grafiką komputerową, znana jako Computer Graphics Research Group (CGRG), kierowana przez artystę Charlesa Tsuri. Głównym celem tej nowej organizacji było badanie możliwości animacji komputerowej, w szczególności poprzez projekty studentów sztuki, oraz angażowanie w ten proces innych badaczy.

CGRG zamierzała wykonywać złożone obliczenia animacji komputerowej na minikomputerach, takich jak PDP 11/45, w celu uczynienia grafiki 3D bardziej dostępną dla szerszej publiczności. W 1975 roku Tsuri podpisał umowę z Johnem Staudhammerem na opracowanie specjalistycznego urządzenia, które umożliwiłoby badaczom przejście od grafiki wektorowej do grafiki rastrowej.

Prace CGRG zaowocowały stworzeniem narzędzi do modelowania form geometrycznych wykorzystywanych w animacji (pod kierownictwem Richarda Parenta) oraz algorytmów renderowania obrazów wysokiej jakości (opracowanych przez Alana Myersa). Ponadto opracowano system animacji o nazwie ANIMA II. Poniżej przedstawiono filmy stworzone przy użyciu tego oprogramowania.

Ponieważ kluczowe technologie wyświetlania grafiki 3D na ekranie zostały już opracowane, eksperci zaczęli koncentrować się na tworzeniu bardziej złożonych i szczegółowych modeli do animacji i modelowania. Ten nowy kierunek przyciągnął zainteresowanie zarówno Hollywood, jak i studiów animacji.

Film „Czarna dziura” z 1979 roku był pierwszym filmem, w którym efekty wizualne 3D miały znaczący czas ekranowy. Czołówkę zaprojektował słynny mistrz grafiki ruchomej, Robert Abel. W tej sekwencji tytułowej widz ogląda nagranie z perspektywy statku kosmicznego znajdującego się w czarnej dziurze, przedstawionej jako lej wektorowy.

Lata 80. XX wieku: Rozkwit technologii 3D w świecie sztuki mediów

W 1980 roku inżynier elektryk i ekspert komputerowy John Turner Whitted przedstawił swoje badania, w których nakreślił ideę wykorzystania śledzenia promieni – metody śledzenia promieni mającej na celu dokładniejsze renderowanie oświetlenia na powierzchniach. Obrazy stworzone przy użyciu metody Whitteda były znacznie bardziej realistyczne niż tradycyjne renderingi, co przyciągnęło dużą uwagę do tej innowacyjnej technologii.

Niektóre rendery z publikacji Whitteda Zdjęcie: Turner Whitted / Ulepszony model oświetlenia do wyświetlania cieni. 1980
Niektóre rendery z publikacji Whitteda. Obraz: Turner Whitted / Ulepszony model oświetlenia do wyświetlania cieni. 1980

Rok później grupa badawcza zajmująca się grafiką komputerową Lucasfilm, znana obecnie jako Pixar, stworzyła oprogramowanie do renderowania o nazwie Reyes. Ten nowy silnik wyróżniał się nie tylko wysoką szybkością przetwarzania i doskonałą jakością obrazu, ale także możliwością pracy ze złożonymi strukturami geometrycznymi i specjalnymi shaderami, w tym Displacement. Warto zauważyć, że Reyes jest poprzednikiem silnika RenderMan opracowanego przez Pixar.

W 1982 roku Autodesk wprowadził AutoCAD, program przeznaczony do projektowania wspomaganego komputerowo. Ta innowacja nie tylko znacznie zwiększyła funkcjonalność animacji 3D w tym oprogramowaniu, ale także uczyniła modelowanie 3D bardziej dostępnym dla szerszej publiczności.

Dzięki regularnemu wprowadzaniu nowoczesnych technologii, grafika 3D stawała się coraz bliższa rzeczywistości. W rezultacie jego zastosowanie w przemyśle filmowym stało się jeszcze bardziej powszechne.

Film „Tron”, który trafił do kin w 1982 roku, stał się pionierem w wykorzystaniu grafiki komputerowej, która zajęła około 15 minut całego czasu trwania filmu. Tym razem obejmował animacje słynnych lekkich motocykli, różnorodne efekty specjalne i tworzenie atmosfery wirtualnego świata. W procesie produkcyjnym wzięły udział cztery firmy specjalizujące się w grafice komputerowej: Triple-I, Digital Effects, MAGI i Robert Abel & Associates.

Warto zauważyć, że ta druga firma, założona przez Roberta Abela i jego partnera, Cona Pedersona, zapisała się wyraźnie w historii lat 80. XX wieku dzięki swoim niezapomnianym animacjom reklamowym generowanym komputerowo.

Studio stawiało pierwsze kroki w świecie grafiki wektorowej. Przykładem jest animacja firmy Panasonic zatytułowana Glider, która powstała w 1981 roku. Projekt ten został sfilmowany bezpośrednio z ekranu wyświetlacza wektorowego, przy użyciu filtrów kolorów.

Abel szybko zdał sobie sprawę, że grafika rastrowa oferuje znacznie szerszy wachlarz możliwości. Dzięki oprogramowaniu opracowanemu przez zespół Abel Image Research, spółki zależnej Robert Abel & Associates, studio mogło przejść do tworzenia animacji o zupełnie nowej jakości. Na przykład w filmie High Fidelity z 1982 roku można zobaczyć elementy zapowiadające styl animacji studia Pixar.

Podobną metodologię projektowania wizualnego zastosował Robert Abel & Associates, tworząc animację zatytułowaną Brilliance (1983), lepiej znaną jako Sexy Robot. Ta zaawansowana technologicznie i nieco prowokacyjna seria filmów miała na celu promocję produktów pakowanych w puszki.

Aby naturalnie zintegrować postać dziewczyny-robota z sekwencją wideo, zespół musiał stworzyć tzw. animację siłową, która stała się prototypem nowoczesnych technologii przechwytywania ruchu. Na ciało zaproszonej tancerki naniesiono specjalne znaki, które posłużyły jako przewodnik do stworzenia modelu 3D. Komputer rejestrował ruchy tych znaków i na ich podstawie generował animację opartą na grafice wektorowej. Gdy zespół był pewien, że robot porusza się prawidłowo, przekonwertował obraz na mapę bitową, dodając kolor i nadając renderowi wizualną głębię.

Wavefront ostatecznie nabył technologię bitmapową Abel Image Research za 1 milion dolarów.

W 1983 roku MAGI jako pierwszy zastosował połączenie klasycznej animacji i grafiki 3D w swoim filmie Gdzie mieszkają dzikie stwory. Jednak ta wersja filmu nigdy nie została wydana i w sieci można znaleźć jedynie kilka fragmentów.

W 1985 roku Charles Csuri założył firmę Cranston/Csuri Productions, która opracowała pierwszą symulację ciekłego metalu. Podobne technologie wykorzystano później przy tworzeniu drugiego filmu o Terminatorze.

Bardzo szybko animacja 3D zyskała popularność w przemyśle muzycznym. W 1985 roku ukazał się teledysk do utworu „Money For Nothing” zespołu Dire Straits, stając się pierwszym w historii teledyskiem z trójwymiarowymi postaciami wizualizującymi tekst piosenki.

W 1986 roku premierę miał krótkometrażowy film „Luxo Jr.”, stworzony przez animatora i reżysera Johna Lassetera. Praca ta wprowadziła innowacyjną technologię samonaświetlania, pozwalającą ruchomym obiektom w scenie rzucać cienie zarówno na siebie, jak i na otaczające je elementy. Co więcej, wizerunek antropomorficznej lampy stał się później symbolem studia Pixar.

Kadr z filmu „Labirynt” (1986) od razu zapada w pamięć dzięki animacji zwierzęcia. Sowa rozpościerająca skrzydła została przedstawiona z takim realizmem, jaki pozwalała na to ówczesna technologia.

Film „Star Trek IV: Powrót na Ziemię” był pierwszym filmem w dziedzinie wizualizacji ludzkich twarzy z wykorzystaniem technologii morfingu. Aby stworzyć wstępne modele głów aktorów, eksperci wykorzystali skanery 3D firmy Cyberwave.

W ten sposób na początku lat 90. grafika 3D ugruntowała swoją pozycję w dziedzinie sztuki medialnej.

Lata 90.: Początek nowej ery grafiki 3D

Chociaż komputery domowe stawały się coraz bardziej powszechne, nowoczesne technologie pozostawały poza zasięgiem większości użytkowników. Renderowanie odbywało się na specjalistycznych stacjach roboczych, znacznie wydajniejszych niż zwykłe komputery osobiste. Ponadto każde studio animacji korzystało z własnego zestawu narzędzi do realizacji swoich zadań.

Nie oznacza to, że oprogramowanie konsumenckie nie miało tam miejsca. Jednak aplikacje do modelowania 3D, takie jak Caligari 24 (wydana w 1992 roku), Amapi (1993) i TrueSpace (1994), miały dość ograniczone możliwości. Nawet Blender, wprowadzony na rynek w 1994 roku, stał się pełnoprawnym narzędziem do modelowania 3D dopiero znacznie później.

Na początku lat 90., ze względu na ograniczenia sprzętowe, grafika 3D w grach wideo była reprezentowana głównie przez modele low-poly z płaskim oświetleniem. Przykładem takiej implementacji jest gra Alone in the Dark. Co więcej, w tym czasie w branży panował trend w kierunku grafiki pseudo-3D, co oznaczało, że elementy 3D często występowały w postaci statycznych renderów.

Sytuacja w branży filmowej rozwijała się zupełnie inaczej. Postęp technologiczny zaczął uzupełniać komponent artystyczny, a żywi aktorzy zaczęli wchodzić w interakcje z postaciami stworzonymi za pomocą grafiki komputerowej. Na przykład w filmie „Pamięć absolutna” (1990) modele szkieletów wyposażone w animację mocap posłużyły do ​​zademonstrowania zaawansowanych technologicznie zdjęć rentgenowskich.

Terminator 2: Dzień Sądu (1991) wyróżnia się nie tylko wspomnianą imitacją płynnego metalu, ale także bardziej realistyczną animacją obiektów 3D. Chociaż postać grana przez Roberta Patricka została stworzona w tej samej technologii co pseudopod z Otchłani, ten ostatni był postrzegany jako coś abstrakcyjnego i obcego. W rezultacie ruchy cyborga T-1000 wyglądały bardziej żywo i naturalnie, pomimo swojej prawdziwej natury.

W filmie „Jurassic Park” (1993) wykorzystano kombinację technik, aby stworzyć realistyczne obrazy dinozaurów. Tutaj możesz zobaczyć nie tylko sceny, w których dinozaury są przedstawione jako modele 3D stworzone za pomocą oprogramowania do teksturowania Viewpaint, ale także modele mechaniczne, które również odgrywają rolę w filmie.

Grafika komputerowa miała również wpływ na jeden z najdroższych filmów kinowych – Titanica (1997). Oprócz efektów wizualnych wykorzystanych w scenach wodnych, grafika 3D została wykorzystana do stworzenia niektórych obiektów, takich jak bryły lodu. W pewnych momentach zaczęto nawet wykorzystywać trójwymiarowe modele ludzi, ale wielu widzów dopiero niedawno zdało sobie sprawę z ich obecności.

W 1994 roku w świecie animacji swoją premierę miał pierwszy sezon serialu ReBoot. Stał się on pierwszym projektem kanadyjskiej firmy Rainmaker Entertainment (znanej również jako Mainframe Entertainment) w całości wykonanym w grafice 3D. Fabuła odcinków rozgrywa się w komputerowym wszechświecie, do którego nieustannie próbują wniknąć wirusy, jednak główny bohater, Bob, i jego towarzysze nieustannie zapobiegają realizacji tych zagrożeń.

Od początku lat 90. na rynku pojawiło się wiele przełomowych programów do grafiki 3D, w tym 3ds Max (wydany w 1996 r.), Houdini (również w 1996 r.) i Maya (1998 r.). W kolejnych latach aplikacje te stały się centralnym elementem procesów produkcji filmów i gier wideo.

W tym czasie nastąpił znaczący postęp technologiczny, napędzany przez premierę wydajniejszych konsol do gier i komputerów osobistych z akceleratorami grafiki 3D. W 1996 roku ukazała się gra 3D Quake, wyznaczając nowe standardy dla strzelanek pierwszoosobowych. Jednak ten gatunek nie był jedynym, który wprowadził grafikę 3D; wiele innych kategorii gier również zaczęło wykorzystywać modele 3D dla postaci i środowisk. Pomimo pewnych ograniczeń technicznych, które uniemożliwiały nowym modelom osiągnięcie wysokiego poziomu szczegółowości, tę wadę z powodzeniem zrekompensowały animacje CG w formacie wideo pełnoekranowym. Filmy te były wyświetlane między poziomami w wielu grach fabularnych.

Pod koniec lat 90. pojawiły się strzelanki, które wyróżniały się wówczas zaawansowaną technologią: Unreal (1998), opracowany przez Epic [Mega]Games, oraz Quake 3: Arena (1999) przez id Software. Następnie silniki używane w tych grach zaczęły być licencjonowane przez różne studia, co doprowadziło do znacznego wzrostu poziomu wydajności wizualnej w świecie gier wideo.

Zrzut ekranu: Quake 3: Arena gra / id Oprogramowanie

Lata 2000.: innowacyjne oprogramowanie i zaawansowane funkcje

Na początku XXI wieku nastąpił gwałtowny wzrost liczby aplikacji do grafiki 3D dostępnych na rynku. W 2000 roku pojawił się SketchUp – internetowa platforma do modelowania CAD, która stała się integralną częścią takich dziedzin jak architektura, projektowanie wnętrz, a nawet film.

W tym samym okresie ukazał się hit animowany Disneya „Dinozaur”, nakręcony przy użyciu wspomnianego oprogramowania Maya. Później w branży pojawiły się narzędzia do cyfrowego rzeźbienia, takie jak ZBrush i Mudbox. Te przełomowe programy dały artystom 3D możliwość pełnej realizacji ich kreatywnych wizji poprzez tworzenie bardziej szczegółowych i dopracowanych modeli postaci.

W rezultacie w kinie początku XXI wieku pojawił się trend tworzenia postaci fantastycznych, które charakteryzowały się realizmem i były rozwijane przy użyciu grafiki 3D. Biorąc pod uwagę, że technologia przechwytywania ruchu była wówczas aktywnie wykorzystywana w produkcji filmowej, wirtualni bohaterowie organicznie wpasowywali się w kadry wraz z żywymi wykonawcami.

Kadr z filmu „Władca Pierścieni: Dwie wieże” / New Line Kino

Technologia Mocap wkrótce zaczęła być wykorzystywana w animacji. Pierwszym filmem, w którym wykorzystano technologię motion capture dla każdej postaci, był „Ekspres polarny” (2004). Prawdziwy potencjał tej technologii ujawnił się jednak dopiero w filmie „Avatar” (2009), w którym udało się osiągnąć nie tylko wysoką dokładność w przekazywaniu mimiki twarzy, ale także stworzyć najbardziej realistyczne środowisko za pomocą grafiki komputerowej.

Kadr: film „Avatar” / XX wiek Podczas gdy wiele gier wideo kładło nacisk na realistyczne przedstawienie i szeroko wykorzystywało fotografie jako tekstury, niektóre projekty stawiały na stylizację. Jednym z pierwszych przykładów cel-shadingu była gra Jet Set Radio, wydana w 2000 roku. Styl ten został później zaimplementowany w grach takich jak The Legend of Zelda: The Wind Waker (2002), XIII (2003) i Okami (2006) i nadal znajduje zastosowanie w nowoczesnych grach.
Zrzut ekranu: gra Okami HD / Capcom

Wielu graczy było zainteresowanych samodzielnym tworzeniem grafiki 3D. Tworzyli mody i machinimy, ale wdrażanie ich własnych projektów pozostawało w rękach dużych studiów. Deweloperzy albo nabywali drogie licencje na istniejące technologie, takie jak Unreal Engine, albo zaczynali rozwijać podobną technologię od podstaw. Każda z tych opcji wymagała znacznych nakładów finansowych.

W 2004 roku David Helgason, Joachim Ante i Nicholas Francis założyli Unity Technologies z zamiarem stworzenia silnika gier dostępnego nie tylko dla profesjonalnych deweloperów, ale także dla szerokiego grona użytkowników. Premiera Unity w 2005 roku i późniejsze aktualizacje, w tym obsługa platform mobilnych, rynek gotowych rozwiązań i przystępne plany licencyjne, stały się ważnymi czynnikami rozwoju niezależnych studiów i indywidualnych deweloperów. Trend ten został później wsparty przez firmę Epic Games, która w 2009 roku wydała darmowy pakiet SDK Unreal Engine 3.

Wraz z rozwojem oprogramowania rozwijała się również społeczność artystów 3D. W 2006 roku ukazał się pierwszy film krótkometrażowy dostępny w otwartej dystrybucji, „Elephants Dream”. W jego powstaniu uczestniczyło wielu pasjonatów ze społeczności Blendera. Projekt ten stał się eksperymentem, który wyraźnie pokazał, jak można tworzyć treści 3D, używając wyłącznie wolnego oprogramowania.

W 2006 roku Ed Catmull, Tony DeRose i Jos Stam zostali uhonorowani Oscarem za wybitne osiągnięcia w nauce i technologii związane z opracowaniem algorytmu znanego jako powierzchnia podziału. Metoda ta, szeroko stosowana w tworzeniu filmów i animacji, stała się integralną częścią współczesnego modelowania 3D. Dziś trudno wyobrazić sobie proces modelowania bez użycia tego algorytmu.

W 2007 roku Pilgway wprowadził na rynek pierwszą wersję swojego uniwersalnego oprogramowania do modelowania 3D, 3DCoat. Oprogramowanie to cieszy się obecnie popularnością wśród współczesnych artystów 3D, którzy postrzegają je jako uzupełnienie lub zamiennik programów takich jak Maya, 3ds Max i ZBrush.

Rok 2009 okazał się kluczowy dla niezależnych twórców gier. Unity Technologies ogłosiło przejście na model dystrybucji freemium dla swojego silnika gry. Ten krok przyczynił się do znacznego wzrostu liczby gier niezależnych na rynku. Teraz każdy mógł zrealizować swoje pomysły i zaprezentować je graczom i szerszej publiczności.

Lata 2010.: Połączenie realizmu i kreatywnej innowacji

Jednym z głównych czynników, które znacząco wpłynęły na grafikę 3D w latach 2010., była transformacja sprzętu. Procesory graficzne stały się wydajniejsze i bardziej wydajne, a ich wykorzystanie stało się powszechne w wielu urządzeniach. Oprócz komputerów osobistych i konsol do gier, zaczęto je integrować z laptopami, tabletami i smartfonami, co przyczyniło się do rozwoju rynku gier i wzrostu liczby użytkowników.

Co więcej, najnowsze technologie wirtualnej rzeczywistości (VR) i rozszerzonej rzeczywistości (AR) otworzyły nowe horyzonty dla wykorzystania grafiki 3D. W rezultacie opracowano bardziej dostępne i kompaktowe systemy przechwytywania ruchu, które są znacznie tańsze niż tradycyjny sprzęt studyjny. Wszystkie te zmiany razem wzięte znacząco rozszerzyły i udoskonaliły narzędzia dostępne dla profesjonalistów zajmujących się grafiką 3D.

Współczesne gry wideo zaczęły obejmować znacznie większe otwarte światy, charakteryzujące się malowniczymi, dynamicznymi środowiskami i realistycznymi efektami pogodowymi. Modele komputerowe mogą teraz zawierać dziesiątki tysięcy wielokątów i wykorzystywać materiały z renderowaniem opartym na fizyce.

Zrzut ekranu: The Elder Scrolls 5: Skyrim Special Edition / Bethesda Game Studios
Zrzut ekranu: gra Wiedźmin 3: Dziki Gon / CD Projekt RED
Zrzut ekranu: Red Dead Redemption 2 / Rockstar Games

Ponadto, dzięki pojawieniu się oprogramowania do fotogrametrii, deweloperzy i artyści 3D zaczęli uchwycić rzeczywiste obiekty i środowiska, przekształcając je w formaty wirtualne. Jednocześnie druk 3D otworzył możliwość ponownego przekształcania modeli cyfrowych w rzeczywistość fizyczną, umożliwiając tworzenie nie tylko figurek, ale także ważnych komponentów niezbędnych do produkcji, które zostały zaprojektowane w specjalistycznych programach do modelowania 3D.

Jednym z najważniejszych wydarzeń w świecie grafiki 3D było wydanie czwartej wersji silnika Unity w 2012 roku i Unreal Engine w 2014 roku. W kolejnym roku Epic Games ogłosiło przejście Unreal Engine 4 na model freemium. Dzięki wysokiej jakości grafiki i unikalnemu podejściu oferowanemu przez Epic Games, technologia ta szybko rozprzestrzeniła się poza branżę gier. Silnik wkrótce znalazł szerokie zastosowanie w takich dziedzinach jak architektura, design, film i inne obszary niezwiązane z grami.

Wraz ze wzrostem liczby autorów pracujących nad treściami o istotnym znaczeniu, znacząco wzrosła również różnorodność stylów w grafice 3D. Oprócz wspomnianego już dążenia do hiperrealizmu, szczególną popularnością cieszą się różne formy stylizacji, w tym cel-shading i low poly.

Jednym z najważniejszych osiągnięć w dziedzinie autorskich eksperymentów z grafiką 3D w ciągu ostatnich dziesięciu lat jest serial antologiczny Miłość, Śmierć i Roboty, którego pierwszy sezon został zaprezentowany widzom w 2019 roku.

Zdjęcie: serial „Miłość, śmierć i roboty” / Netflix

Pod koniec lat 2010. grafika 3D na dobre wkroczyła do codziennego życia, stając się integralną częścią różnych dziedzin – od przemysłu rozrywkowego po badania naukowe.

Nowoczesność i horyzonty jutra

Od czasu premiery Unreal Engine 5 w 2022 roku i biorąc pod uwagę coroczne ulepszenia znanych programów do tworzenia grafiki 3D, możemy śmiało powiedzieć, że nowoczesne technologie są w stanie dostarczać hiperrealistyczne obrazy nawet w ruchu.

Kadr: krótka animacja Irradiation (2021) / Sava Zivkovic

Czasami postęp technologiczny może zaskakiwać i dezorientować. Poniższy film jest dobrym tego przykładem, ponieważ wyraźnie pokazuje ten efekt. Jeśli nie wiesz, że ta praca została stworzona przy użyciu grafiki komputerowej, to na pierwszy rzut oka można ją łatwo pomylić z prawdziwym nagraniem wideo.

Obserwujemy wyraźną tendencję do wdrażania sieci neuronowych, które są integrowane z wieloma nowoczesnymi aplikacjami. Na przykład już dziś możliwe jest:

  • stworzenie obrazu żywej osoby i jej mimiki (MetaHuman Animator);
  • opracowanie animacji w oparciu o zasady fizyki lub uchwycenie ruchów przy użyciu materiałów wideo (Cascadeur, Rokoko Vision, Move AI);
  • skanowanie płynnego otoczenia z uwzględnieniem najmniejszych niuansów (Luma AI);
  • generowanie modeli 3D przy użyciu podpowiedzi, takich jak 3DFY Prompt, Genie, Meshy AI i szereg innych.

Bez wątpienia sztuczna inteligencja jest wciąż w fazie eksperymentalnej, co prowadzi do częstego występowania efektu doliny niesamowitości, gdy jest stosowana. Niemniej jednak, nawet wyniki, choć niezbyt wysokiej jakości, skłaniają do spekulacji na temat tego, jak wysokie mogą być te technologie pod koniec dekady.

Pomimo nieustannej debaty w internecie na temat potencjalnego zastąpienia artystów i animatorów w grafice 3D przez sztuczną inteligencję, wielu ekspertów w tej dziedzinie uważa, że ​​takie twierdzenia są przedwczesne. Historia rozwoju grafiki 3D wyraźnie pokazuje, że technologia i oprogramowanie nieustannie się zmieniają. Przestarzałe techniki stopniowo zanikają lub przekształcają się w wysoce wyspecjalizowane style artystyczne.

Animacje i dema gier wideo, które odtwarzają styl graficzny właściwy konsolom z przeszłości (na przykład projekt w duchu gier na PlayStation 2), często urzekają publiczność nie mniej niż projekty o wysokim stopniu realizmu.

Zrzut ekranu: Dead Space Demake / Fraser Brumley

Sieci neuronowe stanowią zatem jedynie kolejny krok w rozwoju technologicznym. Jednak ich powszechne wdrożenie w grafice 3D stanie się rzeczywistością dopiero wtedy, gdy sztuczna inteligencja połączy ludzką wyobraźnię twórczą i poczucie piękna z wysokiej jakości wykonaniem technicznym. Nawet jeśli ten cel zostanie osiągnięty, eksperci nie zostaną bez pracy; ich role przekształcą się w bardziej techniczne aspekty skupione na zarządzaniu i dostosowywaniu narzędzi opartych na sztucznej inteligencji.

* * *

Biorąc pod uwagę, jak daleko zaszła grafika 3D, można się tylko domyślać, jaka przyszłość czeka tę dziedzinę. Być może za 50 lat nowe pokolenia użytkowników nie będą w stanie zrozumieć, dlaczego animacje tworzone w silniku Unreal Engine 5 były postrzegane jako hiperrealistyczne. Podobnie współczesny widz, który widzi reklamę z udziałem „seksownego robota” z początku lat 80., może nie do końca rozumieć, dlaczego uważano to wówczas za znaczący postęp w grafice 3D.

Zawód 3D Generalist to wyjątkowa i poszukiwana dziedzina w świecie grafiki komputerowej i animacji. Ci specjaliści posiadają szeroki wachlarz umiejętności, pozwalający im tworzyć modele 3D, animacje, teksturowanie i efekty wizualne. Ich praca obejmuje różne aspekty produkcji, od projektu koncepcyjnego po produkcję końcową, co czyni ich wszechstronnymi członkami zespołu. Specjaliści 3D wykorzystują swoją wiedzę w szerokim zakresie dziedzin, w tym w grach wideo, filmie, wizualizacjach architektonicznych i reklamie. Ten zawód wymaga nie tylko wykształcenia technicznego, ale także kreatywnego podejścia, ponieważ ważna jest nie tylko biegła obsługa oprogramowania, ale także tworzenie estetycznych i funkcjonalnych obiektów. Kluczowe umiejętności dla specjalistów 3D obejmują znajomość różnych programów do modelowania 3D, takich jak Blender, Maya lub 3ds Max, a także znajomość podstaw animacji i renderowania. Ponadto muszą być gotowi do ciągłego uczenia się i adaptacji do nowych technologii, ponieważ branża stale się rozwija. Ogólnie rzecz biorąc, zawód grafika 3D oferuje liczne możliwości twórczej ekspresji i rozwoju zawodowego, co czyni go atrakcyjnym dla wielu kreatywnych osób.

Staniesz się wszechstronnym ekspertem 3D, posiadającym umiejętności tworzenia obiektów i środowisk, dostosowywania tekstur i schematów kolorów, a także animowania modeli i integrowania ich ze sceną 3D. Podczas szkolenia opanujesz takie programy jak Houdini, Autodesk Maya, Blender, Photoshop, ZBrush, Marmoset 3D, Substance Painter, Marvelous Designer, Arnold i Rizom UV. Otworzy to możliwości zatrudnienia w reklamie, branży gier lub filmie. Poniższy obraz przedstawia pracę uczestnika kursu Jewgienija Kuzniecowa.

Dowiedz się więcej