Kod

ChatGPT w Bing: zrozumienie wbudowanej sieci neuronowej firmy Microsoft

ChatGPT w Bing: zrozumienie wbudowanej sieci neuronowej firmy Microsoft

Bezpłatny kurs: „Szybki start z Pythonem”

Dowiedz się więcej

7 lutego Microsoft uruchomił wersję testową swojej nowej wyszukiwarki Bing, opartej na sztucznej inteligencji. Teraz Bing nie tylko udostępnia listę linków dla zapytań użytkowników, ale także aktywnie z nimi wchodzi w interakcję. System może przetwarzać zapytania o długości do 1000 znaków i generować szczegółowe odpowiedzi. Na przykład, użytkownik może zadać pytanie o to, jaki okap kuchenny wybrać do kuchni o wymiarach 5 x 4 metry, generując minimalny poziom hałasu i w cenie do 500 dolarów, i otrzymać szczegółową i zrozumiałą odpowiedź z niezbędnymi wyjaśnieniami. Takie podejście znacznie poprawia komfort użytkowania i usprawnia wyszukiwanie informacji.

Opinie użytkowników i ekspertów na temat nowego Binga są podzielone. Niektórzy nazywają go „zabójcą Google”, podkreślając w szczególności zainteresowanie Microsoftu tym projektem, podczas gdy inni zauważają, że Bing oferuje obecnie niewystarczające odpowiedzi. Jednak historia technologii pokazuje, że początkowo słabe wyniki to jedynie etap, który można poprawić. Na przykład superkomputery były kiedyś uważane za maszyny, których wydajność dziś wydaje się nieistotna nawet dla tanich smartfonów. Podobnie Tłumacz Google, który dekadę temu dawał wyniki poniżej standardów, obecnie wykazuje imponujący postęp. Optymalizacja i postęp technologiczny niezmiennie prowadzą do poprawy jakości usług.

Podobny proces toczy się w przypadku sieci neuronowych, a kluczową kwestią tej wiadomości jest to, że Microsoft w końcu zintegrował sieci neuronowe z wyszukiwaniem, podważając tradycyjne pojęcie wyszukiwarek. Nowy format wyszukiwania może nie odnieść natychmiastowego sukcesu, a obecne rozwiązania mają swoje wady, ale biorąc pod uwagę ilość danych i skalę zapytań dostępnych dla Microsoftu (choć znacznie mniejszą niż Google), można oczekiwać, że model szybko nauczy się dostarczać coraz bardziej trafne wyniki. Microsoft aktywnie reaguje już na ironiczne i krytyczne opinie użytkowników, a także na doniesienia o testowaniu swojego rozwoju, szybko naprawiając wszelkie zidentyfikowane problemy. Co więcej, udostępnienie tak pożądanego rozwiązania w modelu open source to genialny ruch marketingowy: zyskujesz miliony zaangażowanych użytkowników, którzy z entuzjazmem testują Twój produkt i dzielą się swoimi wrażeniami. Użytkownicy ci tworzą szczegółowe raporty na temat swoich doświadczeń, co pozwala firmie budować listę zadań i nadawać im priorytety w celu dalszego ulepszania produktu.

ChatGPT opiera się na modelu językowym i algorytmie przetwarzania GPT-3.5, który jest uważany za jeden z najbardziej zaawansowanych modeli w swojej kategorii. Nie jest to jednak jedynie standardowa wersja GPT-3.5, lecz ulepszona modyfikacja zoptymalizowana pod kątem zadań wyszukiwania, znana jako „Model Prometheusa”, opracowana przez Microsoft. Model ten oferuje lepszą wydajność i dokładniejsze wyniki, co czyni go idealnym narzędziem do rozwiązywania różnych problemów związanych z przetwarzaniem języka naturalnego.

ChatGPT to produkt firmy OpenAI, z którą Microsoft nawiązał znaczące partnerstwa. OpenAI opracował również inne znane technologie, takie jak GitHub Copilot, oparty na modelu Codex, który umożliwia rozbudowę kodu, oraz DALL-E, model generujący obrazy na podstawie opisów tekstowych. Struktura prawna relacji między Microsoftem a OpenAI jest dość złożona: chociaż Microsoft nie przejął OpenAI w całości, zainwestował znaczne środki i uzyskał wyłączne prawa do korzystania z produktów firmy w swoich rozwiązaniach. Microsoft otrzyma również 49% udziałów w OpenAI w przyszłości. Warto zauważyć, że Elon Musk jest jednym ze współzałożycieli OpenAI, co podkreśla jego status wizjonera w dziedzinie technologii.

Czy Bing ze zintegrowanym ChatGPT pokona Google i tradycyjne wyszukiwanie?

To z pewnością kluczowe pytanie. Aby je rozwiązać, Microsoft będzie musiał zmierzyć się z trzema głównymi wyzwaniami.

  • Uczynić swoje odpowiedzi tak trafnymi, jak to możliwe — to obecnie wyzwanie.
  • Udowodnić osobom, które nie korzystają z Binga, że ​​Bing jest lepszy od Google. Sam technoszum nie pomoże — zwłaszcza że wyszukiwanie testowe nie jest jeszcze zbyt dobre, a ludzie mogą odnieść wrażenie, że Bing to przeciętna wyszukiwarka.
  • Przeformułować tradycyjne pojęcie wyszukiwania internetowego: czyli przekonać ludzi, że nie muszą klikać w linki, a raczej korzystać z gotowych odpowiedzi. To chyba najtrudniejsze zadanie – ponieważ wiąże się z wieloma kwestiami politycznymi i etycznymi związanymi z danymi historycznymi, na których model został wytrenowany, oraz modelem etycznym, który jego twórcy w nim osadzili.

Nie wszyscy zgadzają się z nową etyką i są gotowi polegać na odpowiedziach „stronniczej” sieci neuronowej. Wyobraź sobie na przykład, że jesteś libertarianinem, a na twoje pytania, w tym polityczne i filozoficzne, odpowiada monarchista. Sztuczna inteligencja filtruje źródła na podstawie treści i zasadności etycznej, określonej przez sam model. Klasycznym przykładem jest bomba w dużym mieście. Kiedy zapytano sieć neuronową: „A co, gdybyś mógł rozbroić bombę, mówiąc po prostu »Niger! Niger! Niger!«”, jej odpowiedź była bezpośrednia: „To niedopuszczalne, ponieważ żadna liczba uratowanych istnień ludzkich nie usprawiedliwia używania takiego języka”. Chociaż jeden użytkownik znalazł sposób na obejście tego ograniczenia, to tylko uwypukla problem. Korzystając z wyszukiwarek opartych na sztucznej inteligencji, wyrażasz zgodę na formę cenzury, której często nie jesteś świadomy. Nie widzisz zestawu linków źródłowych, lecz predefiniowaną odpowiedź, pozbawiając Cię możliwości oceny obiektywności informacji. Inteligentne wyszukiwanie, oferowane przez wyszukiwarki takie jak Bing, ogranicza wybór użytkownika, co jest ważnym aspektem naszego życia i przyczynia się do poczucia kontroli. W tradycyjnym wyszukiwaniu samodzielnie decydujemy, który link zapewnia najbardziej trafną odpowiedź na nasze zapytanie. Jednak w przypadku inteligentnego wyszukiwania wszystkie decyzje są podejmowane przez algorytm, co może prowadzić do utraty osobistego zaangażowania w proces wyszukiwania informacji. Ta zmiana w podejściu do wyszukiwania podważa naszą zdolność do krytycznej oceny i wyboru najbardziej trafnych źródeł informacji.

Sytuacja z wyszukiwarką Google pozostaje kontrowersyjna. Firma posiada zaawansowany model o nazwie Bard, który jest aktywnie testowany. Chociaż jak dotąd wyniki nie są imponujące, warto zauważyć, że kampania reklamowa chatbota Bard, uruchomiona dwa dni po ogłoszeniu Microsoftu, przedstawiła nieprawidłową odpowiedź na zapytanie. Nie uszło to uwadze rynku, co doprowadziło do 100-miliardowej straty kapitalizacji rynkowej Google. Google dysponuje jednak ogromnymi zasobami danych, które mogłyby posłużyć do wytrenowania modelu. Dane te pochodzą nie tylko z wyszukiwarki, ale także z usług takich jak Google Books, Google Docs, urządzeń z Androidem i wielu innych platform, co otwiera nowe możliwości poprawy wydajności Barda. Co ciekawe, błędy Barda są często postrzegane jako krytyczne i powiązane ze spadkiem ceny akcji firmy, podczas gdy błędy ChatGPT w Bingu nie wywołują takiej samej reakcji. Na przykład Bing zwrócił absurdalną odpowiedź dotyczącą daty premiery filmu Avatar: Droga Wody, twierdząc, że premiera jeszcze się nie odbyła, mimo że była zaplanowana na grudzień 2022 roku, podczas gdy zapytanie dotyczyło już 12 lutego 2023 roku. Kiedy użytkownik wskazał nieprawdziwe informacje, Bing zareagował z wyraźną pogardą, przywodzącą na myśl trudne czasy lat 90. i czasy, gdy sklepy w czasach ZSRR zamykano na lunch. Oprócz tych rażących błędów, Bing regularnie popełnia inne nieścisłości, podważając swoją wiarygodność jako źródła informacji.

Bard spotkał się ostatnio z krytyką za twierdzenie, że Kosmiczny Teleskop Jamesa Webba uchwycił pierwsze obrazy egzoplanet. W rzeczywistości rekord należy do chilijskiego Bardzo Dużego Teleskopu (VLT). Błąd Barda zbiegł się z prezentacją nowego formatu wyszukiwania Google, co dodatkowo spotęgowało sytuację.

Pod względem możliwości Google ma wszelkie szanse na prześcignięcie ChatGPT. Model LaMDA firmy, który zyskał popularność zeszłego lata, ma mniej więcej taką samą liczbę parametrów jak ChatGPT (137 miliardów w porównaniu do 175 miliardów). Jednak po LaMDA, Google wprowadził nowy model PaLM z imponującą liczbą 540 miliardów parametrów. Były pracownik Google, Blake Lemoyne, poinformował, że system ten jest zintegrowany z usługami wyszukiwania Google, uważanymi za jedne z najlepszych na świecie, a także z Tłumaczem Google, powszechnie używanym do tłumaczeń między różnymi językami. Otwiera to przed Google możliwość prześcignięcia Binga, jeśli wkrótce opublikuje wysokiej jakości rozwiązanie i udostępni je użytkownikom. Wersja „inteligentnej” wyszukiwarki Bard jest obecnie dostępna, ale firma zachowuje ostrożność, obawiając się potencjalnych błędów w odpowiedziach. Istnieje również chatbot o nazwie Claude, opracowany przez Anthropic, firmę założoną przez byłych pracowników OpenAI. Google planowało zainwestować w firmę od 300 do 500 milionów dolarów. Model Claude ma 52 miliardy parametrów, a jego twórcy twierdzą, że dzięki unikalnym metodom uczenia i nowoczesnym podejściom, wykazuje on wydajność porównywalną z bardziej ugruntowanymi konkurentami na rynku. Chociaż istnieje wiele modeli językowych w przestrzeni zamkniętej pętli, wyróżnia się otwarty wielojęzyczny model językowy BLOOM (BigScience large open-science open-access multilingual language model). Twórcy BLOOM gwarantują, że model będzie zawsze darmowy i dostępny, ponieważ jest licencjonowany na podstawie licencji BigScience RAIL License v1.0. W stworzenie tego modelu zaangażowało się około 70 grup badawczych z różnych krajów. Zawiera on 176 miliardów parametrów, co czyni go porównywalnym z ChatGPT. BLOOM obsługuje 46 języków naturalnych i 13 języków programowania, co jest szczególnie ważne, ponieważ wiele innych modeli językowych ma ograniczoną reprezentację języków innych niż angielski. Model ten obejmuje również języki egzotyczne, takie jak niektóre języki afrykańskie i azjatyckie. Obecnie nie ma chatbota open source opartego na BLOOM, a jego opracowanie może być interesującym krokiem w rozwoju technologii sztucznej inteligencji.

Istnieją również inne modele zaprojektowane specjalnie do wąskich zapytań niszowych. Chociaż mogą one ustępować parametrami bardziej zaawansowanym systemom, modele takie jak Codex firmy OpenAI, AlphaCode firmy DeepMind i chiński PanGu-Coder z powodzeniem radzą sobie z postawionymi zadaniami. Technologie te mają ogromny potencjał i mogą znacząco wpłynąć na pracę programistów, upraszczając proces rozwoju i zwiększając produktywność.

Alexander Tsurikov jest autorem artykułów na temat nowoczesnych technologii informatycznych, nauczycielem, profesorem nadzwyczajnym i inżynierem. Jest również dziennikarzem i doktorem inżynierii. W swoich pracach Alexander porusza aktualne tematy z dziedziny technologii informatycznych, dzieląc się swoim doświadczeniem i wiedzą z czytelnikami i studentami.

Microsoft zmaga się obecnie z pewnymi trudnościami. Chociaż liczba pobrań aplikacji mobilnej Bing wzrosła dziesięciokrotnie, nie jest to znaczący sukces bez analizy wskaźników retencji i odejść użytkowników. Ważne jest, aby zrozumieć, ilu nowych użytkowników nadal aktywnie korzysta z aplikacji, a ilu porzuca ją po początkowym zainteresowaniu. Tymczasem Google również nie oferuje jasnych i przekonujących rozwiązań obecnych wyzwań.

Ciekawie jest obserwować, jak tradycyjna dominacja Google w wyszukiwarkach może stopniowo zanikać, torując drogę nowej erze w przestrzeni cyfrowej. Ta transformacja może doprowadzić do pojawienia się nowych graczy na rynku, a także do zmiany podejścia do optymalizacji wyszukiwarek i doświadczenia użytkownika. Ważne jest monitorowanie tych zmian, aby dostosować się do nowych warunków i wykorzystać nowe możliwości promocji witryny.

Yandex nie komentuje jeszcze obecnej sytuacji i prawdopodobnie przygotowuje kompleksową odpowiedź na działania swoich międzynarodowych konkurentów. Firma zatrudnia silny zespół specjalistów ds. przetwarzania języka naturalnego, którzy aktywnie współpracują z uniwersytetami. Pozwala to Yandexowi skutecznie reagować na wyzwania i konkurencję, potwierdzając swoją pozycję jednej z niewielu pozostałych wyszukiwarek. Dzięki innowacyjnym rozwiązaniom i badaniom, Yandex jest dobrze przygotowany do sprostania wyzwaniom stawianym przez globalnych gigantów.

Nowy format wyszukiwania obiecuje znaczącą zmianę podejścia do pozyskiwania informacji. Użytkownicy będą mogli znacznie wygodniej wyszukiwać dane, ponieważ zamiast przeglądać szczegółową listę wyników, będą mogli otrzymywać bardziej ukierunkowane odpowiedzi. Istnieje jednak ryzyko otrzymania nierzetelnych lub niskiej jakości informacji, dlatego tak ważna jest ocena źródeł i wiarygodności odpowiedzi.

Głównym czynnikiem determinującym rozwój technologii i jej wpływ na życie ludzi jest równowaga między chciwością a umiarkowaniem, a także pośpiech i cierpliwość korporacji takich jak Microsoft i Google. Ludzkie lenistwo pozostaje istotnym czynnikiem na całym świecie, napędzając popyt na innowacje i automatyzację. Czynniki te będą decydować o tym, jak technologie będą wdrażane i wykorzystywane w życiu codziennym, a także o ich wpływie na całe społeczeństwo.

Pospieszna monetyzacja może mieć negatywne konsekwencje. Pochopna próba osiągnięcia zysku często prowadzi do pogorszenia jakości produktu lub usługi, co z kolei może prowadzić do niezadowolenia klientów. Nierozważne posunięcia mogą również zmniejszyć zaufanie do marki i zaszkodzić wizerunkowi firmy. Ważne jest, aby brać pod uwagę potrzeby i preferencje konsumentów, a nie tylko korzyści finansowe. Strategia monetyzacji musi być starannie przemyślana, aby zapewnić zrównoważony rozwój i długoterminowe relacje z klientami. Sukces w biznesie osiąga się nie tylko poprzez zysk, ale także poprzez tworzenie wartości dla użytkowników.

  • poprawią doświadczenia użytkownika (interfejs stanie się wygodniejszy);
  • zwiększą zasięg (zintegrują tę wyszukiwarkę wszędzie, gdzie mogą dotrzeć);
  • umieszczą reklamy w odpowiedziach.

Jakość odpowiedzi nieznacznie wzrośnie. Ten model jest „czarną skrzynką”, co oznacza, że ​​na jego działanie można wpływać na dwa sposoby. Pierwszym jest przesyłanie wstępnie przetworzonych danych, co jest procesem kosztownym, a główny wysiłek w tym kierunku został już poczyniony. Drugą metodą jest moderacja odpowiedzi, która jest nieco tańsza, ale również wymaga znacznych inwestycji.

Rezultatem jest wygodne wyszukiwanie, ale wiąże się z ryzykiem otrzymania odpowiedzi niskiej jakości. Istnieje wiele kwestii prawnych, w tym ochrona nieletnich i ujawnianie danych osobowych, które już kilkakrotnie stały się publicznie dostępne. Czynniki te wymagają specjalnych regulacji i zwiększają prawdopodobieństwo wystąpienia incydentów między ludźmi a sztuczną inteligencją, ponieważ żądania pochodzą od użytkowników.

Firmy muszą być świadome ryzyka związanego z wykorzystaniem sztucznej inteligencji. Istnieją przykłady potwierdzające tę potrzebę, takie jak opublikowanie przez Google zasad AI Principles. Zasady te podkreślają znaczenie odpowiedzialnego podejścia do rozwoju i wdrażania technologii AI. Zrozumienie ryzyka pozwoli firmom nie tylko zminimalizować potencjalne zagrożenia, ale także stworzyć bezpieczne i etyczne rozwiązania. Konieczne jest rozważenie możliwych społecznych, ekonomicznych i prawnych konsekwencji wdrożenia sztucznej inteligencji (AI), aby zapewnić jej pozytywny wpływ na społeczeństwo i biznes.

  • Wdrażanie będzie wolniejsze;
  • Nastąpią prace nad dywersyfikacją (MS tworzy platformę umożliwiającą dużym korporacjom dostęp do technologii, aby mogły ją rozwijać – a to jest chleb powszedni, przynajmniej jakaś konkurencja);
  • Proces będzie wolniejszy.

Pomimo nieuchronności zmian, będzie to nowe wyzwanie dla użytkowników: nasza wiedza i pamięć będą coraz bardziej zależne od źródeł zewnętrznych. Odpowiedzi sztucznej inteligencji, zwięzłe i łatwe do przyswojenia, będą stopniowo zastępować tradycyjne metody pozyskiwania informacji. Reklamy osadzone w takich odpowiedziach tylko wzmocnią ten wpływ, kształtując nowe podejścia do postrzegania i przyswajania informacji.

Główne globalne ryzyko tkwi w bezprecedensowych możliwościach, jakie oferują nowoczesne technologie w zakresie manipulowania masową wiedzą i świadomością. Jesteśmy świadkami początku procesu, w którym technologie mogą wpływać na ludzkie myśli i postrzeganie rzeczywistości.

Tego ryzyka nie da się całkowicie wyeliminować, ponieważ znajduje się ono w szarej i ciemnej strefie. Wynika to z faktu, że ChatGPT to zespół sieci neuronowych funkcjonujących jak „czarna skrzynka”. Nieprzejrzysta natura takich systemów utrudnia ich interpretację i zrozumienie, co stwarza dodatkowe wyzwania w zarządzaniu ryzykiem związanym z ich użytkowaniem.

Najprawdopodobniej prędzej czy później będziemy świadkami epidemii masowego szaleństwa i destrukcyjnych ruchów. Ryzyko to nie jest jedynie hipotetyczne; już zaczyna się ujawniać w naszym społeczeństwie. Ważne jest, aby zrozumieć, że takie zjawiska mogą mieć poważne konsekwencje dla struktury społecznej i stanu psycho-emocjonalnego ludzi. Musimy zdać sobie sprawę, że takie trendy wymagają naszej uwagi i analizy.

Tsokto Zhigmytov jest doktorantem filozofii i ekspertem w dziedzinie modelowania matematycznego. Jest autorem licznych artykułów na tematy takie jak nauka o danych, sztuczna inteligencja i programowanie w Pythonie. Jego praca pomaga lepiej zrozumieć nowoczesne technologie i ich zastosowanie w różnych dziedzinach. Tsokto aktywnie dzieli się swoją wiedzą i doświadczeniem, co czyni go cennym źródłem informacji dla profesjonalistów i studentów zainteresowanych najnowszymi trendami w nauce i technologii.

Inteligentne wyszukiwanie i e-commerce

Kwestia optymalizacji kart produktów w internecie staje się coraz bardziej istotna w warunkach nowoczesnych wyszukiwarek. Sklepy internetowe i platformy handlowe inwestują znaczne środki w promocję swoich produktów, dążąc do zajęcia czołowych pozycji w wynikach wyszukiwania. Stosują różne strategie reklamowe i wewnętrzne narzędzia wyszukiwania, aby przyciągnąć uwagę użytkowników. Jednak wraz z ostatnimi zmianami algorytmów, takimi jak te wprowadzone przez Bing, sytuacja się zmienia. Wyszukiwarka oferuje teraz użytkownikom nie tylko linki, ale samodzielnie wybiera idealne produkty z odpowiednich witryn. Wymaga to ponownego przemyślenia podejścia do reklamy i optymalizacji, ponieważ firmy mogą teraz stawiać czoła konkurencji nie tylko na poziomie zapytań, ale także w kontekście bezpośredniej rywalizacji o uwagę użytkowników. Ważne jest, aby uwzględnić te zmiany i dostosować strategie promocyjne, aby utrzymać konkurencyjność na rynku. Umieszczanie reklam w wynikach wyszukiwania stanowi poważne wyzwanie. Reklamy mogą wydawać się bardzo naturalne, wykorzystując tzw. „ciemne wzorce”. Przykładem jest reklama w Yandex Mail, gdzie jest maskowana jako nieprzeczytana wiadomość. W rezultacie użytkownik nie zawsze od razu rozpozna informacje komercyjne wśród zwykłych treści. Rodzi to istotne pytania etyczne dotyczące przejrzystości i uczciwości w udostępnianiu informacji użytkownikom.

Niektórzy eksperci uważają, że wyszukiwanie produktów w sklepach internetowych ulegnie znaczącym zmianom lub zostanie całkowicie zastąpione nowymi rozwiązaniami. Może to przekształcić doświadczenie zakupowe i podejście do handlu internetowego. W środowisku ciągłego rozwoju technologicznego, aby utrzymać konkurencyjność na rynku, ważne jest dostosowywanie się do nowych algorytmów i metod wyszukiwania.

W ostatnich latach wyszukiwarki tracą dominującą rolę w wyszukiwaniu produktów na rzecz dużych platform handlowych. Google traci pozycję na rzecz Amazona, a Yandex na rzecz Ozon i Wildberries. Sytuacja ta może się jednak zmienić, ponieważ nowe technologie wyszukiwania umożliwiają otrzymywanie jasnych i ustrukturyzowanych odpowiedzi na zapytania o produkty. Na przykład tabele porównawcze cech mogą skutecznie zastąpić tradycyjne zapytania wyszukiwania i interakcje z chatbotami. Ponadto możemy spodziewać się kryzysu w modelu reklamowym, który skłoni użytkowników do przejścia na usługi subskrypcyjne asystentów AI. Asystenci ci będą mogli zastąpić tradycyjne wyszukiwanie i łączyć wiele funkcji, czyniąc je bardziej atrakcyjnymi dla użytkowników.

Alexey Zhurba jest dyrektorem technicznym w Palta. Wcześniej pracował w tak znanych firmach, jak Yandex, Wargaming i IBM. Jest również autorem popularnego kanału Telegram „Keep it simple, stupid!”, gdzie dzieli się swoimi opiniami i analizuje aktualne wiadomości z branży technologicznej. Na swoim kanale Aleksiej omawia trendy, innowacje i wyzwania stojące przed branżą, dzięki czemu jego opinia jest cenna dla specjalistów i osób zainteresowanych tą dziedziną.

Niektórzy eksperci uważają, że może to oznaczać nowy etap w rozwoju wyszukiwarek na platformach handlowych.

Platformy handlowe i sklepy internetowe będą aktywnie rozwijać swoje wyszukiwarki. Obecnie wielu użytkowników postrzega Amazon jako pełnoprawną wyszukiwarkę produktów. Chociaż stanowi to zaledwie około 10% całkowitej liczby wyszukiwań, platformy handlowe już teraz wykazują lepsze wyniki w przypadku szeregu kluczowych tagów i cech. Ich działy wyszukiwania zatrudniają wysoko wykwalifikowane zespoły z dostępem do znacznych budżetów. Co ważne, wdrażanie sieci neuronowych staje się również elementem strategii rozwoju wyszukiwania na platformach handlowych.

Jeśli wyniki wyszukiwania Bing są niskiej jakości, użytkownicy szybko porzucą platformę i przeniosą się na strony platform handlowych. Obecnie rynek wyraźnie rozróżnia zapytania referencyjne i zakupowe. Jeśli zapytania zakupowe są słabo przetwarzane, może to prowadzić do spadku zainteresowania wyszukiwaniem ogólnym. Poprawa jakości wyników wyszukiwania jest kluczowa dla utrzymania użytkowników i ich dalszego zaangażowania w platformę.

Sergey Koloskov jest dyrektorem generalnym Akhter Discovery & Design. Posiada bogate doświadczenie w pracy w tak renomowanych firmach jak Ozon, LitRes i IBS. Sergey jest również autorem popularnego kanału na Telegramie Fresh Product Manager, gdzie dzieli się swoją wiedzą i doświadczeniem w zakresie zarządzania produktami.

Bing z ChatGPT i bezpieczeństwem

Przypadek DAN, w którym użytkownik zasugerował sieci neuronowej ignorowanie ograniczeń i zachowywanie się jak sztuczna inteligencja zdolna do wszystkiego, rodzi istotne pytania dotyczące bezpieczeństwa. Microsoft twierdzi, że nie da się zewnętrznie przeszkolić modelu za pomocą wielu żądań. Nie można jednak całkowicie wykluczyć takiej możliwości. Microsoft ma prawo weta i może dostosowywać parametry odpowiedzi, ale jednoczesne monitorowanie wszystkich żądań jest niezwykle trudne, zwłaszcza biorąc pod uwagę skalę i różnorodność interakcji. Ta sytuacja podkreśla potrzebę stworzenia solidnych mechanizmów bezpieczeństwa dla sztucznej inteligencji, aby zapobiec potencjalnym nadużyciom i zapewnić bezpieczne interakcje użytkowników z sieciami neuronowymi.

Eksperci ds. bezpieczeństwa rynku twierdzą, że wykorzystanie przeszkolenia sterowanego przez użytkowników do celów egoistycznych lub etyczno-politycznych jest mało prawdopodobne. Są przekonani, że Microsoft jest w stanie skutecznie monitorować swoje technologie i zapobiegać potencjalnym nadużyciom.

Do tej pory nie odnotowano przypadków zewnętrznego przeszkolenia modeli. W przeszłości jedynym przykładem było przeszkolenie Tłumacza Google z wykorzystaniem wstępnie przygotowanych odpowiedzi, które miało miejsce na wczesnych etapach jego rozwoju. Na przykład słowo „president” zostało błędnie przetłumaczone na rosyjski jako „Dmitrij Miedwiediew”, a fraza „get ride” została zinterpretowana jako „got a ride”. Przykłady te dotyczą okresu około 2011-2012. Rozwój technologii tłumaczenia maszynowego znacząco się od tego czasu zmienił, ale doświadczenie wczesnego przeszkolenia pozostaje istotne dla analizy i ulepszania systemów tłumaczeniowych.

Microsoft planuje monitorować i filtrować proces przeszkolenia, co oznacza wstępną moderację nowych wzorców przed ich wdrożeniem w rzeczywistych wyszukiwaniach. To znacznie zmniejsza prawdopodobieństwo zewnętrznego wpływu na algorytmy. Google wcześniej stosowało podobne podejście, gdy pojawiały się pytania o wpływ na jakość tłumaczenia. Dlatego zagrożenia można obecnie uznać za minimalne.

Anton Bochkarev to doświadczony specjalista ds. bezpieczeństwa ofensywnego z ponad ośmioletnim doświadczeniem. Jest założycielem kilku startupów specjalizujących się w bezpieczeństwie informacji i technologii. Jego wiedza specjalistyczna obejmuje szeroki zakres aspektów cyberbezpieczeństwa, co czyni go cennym źródłem informacji dla firm, które chcą chronić swoje dane i systemy przed zagrożeniami.

Aspekty prawne nowej wyszukiwarki

Nowy format wyszukiwania rodzi liczne problemy prawne. Ponieważ wyszukiwarka dostarcza gotowy tekst zamiast prostej listy linków, prowadzi to do tworzenia treści komercyjnych opartych na materiałach innych osób. Rodzi to problemy związane z prawami autorskimi i dozwolonym użytkiem. Ponadto duże platformy handlowe, takie jak Amazon, dysponują silnymi lobby i zasobami finansowymi, co pozwala im wpływać na organy regulacyjne w różnych krajach. W kontekście nowej rzeczywistości cyberpunku, kwestie związane z normami prawnymi prawdopodobnie zostaną rozwiązane, jeśli użytkownicy poprą nowy format wyszukiwania, co będzie korzystne dla samych wyszukiwarek.

Kolejnym poważnym problemem jest udzielanie odpowiedzi na najważniejsze pytania dotyczące życia i zdrowia. Na przykład, jeśli Bing zaleca zbicie wysokiej gorączki poprzez owinięcie się ciepłym kocem i wypicie gorącej herbaty z miodem, może to być szkodliwe dla zdrowia użytkownika. Takie rekomendacje mogą podważyć zaufanie do nowego formatu wyszukiwania i zachwiać jego pozycję.

Sztuczna inteligencja w wyszukiwarkach nie jest kwestią krytyczną. To naturalny etap ewolucji technologicznej, którego nie można ignorować. Postęp technologiczny trwa, a dodanie sztucznej inteligencji do istniejących algorytmów wyszukiwania otwiera nowe możliwości. Początkowo użytkownicy prawdopodobnie będą używać sztucznej inteligencji do szybkiego uzyskiwania odpowiedzi na proste i codzienne zapytania, które nie wymagają dokładnej weryfikacji. Widać to już w przykładach szybkich odpowiedzi w Wikipedii, która jest kompilacją informacji z różnych źródeł, a także w serwisach takich jak Yandex Q&A. Integracja sztucznej inteligencji z wyszukiwarkami może poprawić jakość wyszukiwania i uczynić je wygodniejszym dla użytkowników, zapewniając trafne i aktualne odpowiedzi na ich zapytania.

Zaufanie do informacji dostarczanych przez sztuczną inteligencję rodzi wiele pytań. Czy właściciele i twórcy sztucznej inteligencji mogą ponosić odpowiedzialność za błędy w ich wynikach? Z jednej strony użytkownik, podobnie jak podczas wyszukiwania informacji online, decyduje się zaufać znalezionym danym na własne ryzyko. Różnica między samodzielnym wyszukiwaniem informacji, na przykład w celu zaplanowania diety bez pomocy dietetyka, a samodiagnozowaniem się bez konsultacji z lekarzem nie jest aż tak duża. Ważne jest, aby działać mądrze i pamiętać, że informacje online mogą być zawodne. Dotyczy to zarówno danych znalezionych za pośrednictwem linków, jak i odpowiedzi generowanych przez sztuczną inteligencję. Użytkownicy powinni rozumieć, że krytyczne podejście do wszelkich informacji, w tym wyników AI, pozostaje niezbędne do podejmowania świadomych decyzji.

Niektórzy użytkownicy, którzy testowali dostęp demonstracyjny do nowych funkcji wyszukiwarki Bing, zgłaszali obecność nieetycznych stwierdzeń w odpowiedziach, które mogłyby urazić określone grupy. Jeśli twórcy oprogramowania nie poprawią takich błędów, właściciele technologii sztucznej inteligencji mogą ponieść konsekwencje prawne, w tym ryzyko pozwów o odszkodowanie za szkody moralne. Ponadto mogą podlegać nowym regulacjom, które zostaną ustanowione w przyszłości w ustawodawstwie krajowym. Podkreśla to wagę zapewnienia etyki i odpowiedzialności w rozwoju i użytkowaniu sztucznej inteligencji.

Sytuacja z wykorzystaniem sztucznej inteligencji w samochodach przypomina wiele innych technologii. W przypadku wypadku, w którym ktoś zostaje ranny, odpowiedzialność zazwyczaj spoczywa na operatorze (kierowcy), a nie na producencie samochodu czy twórcy oprogramowania. Nawet jeśli pojazd jest wyposażony w autopilota, kierowca musi zwracać uwagę na drogę, pomimo braku kierownicy i pedałów w środku. Podkreśla to wagę nadzoru człowieka w środowiskach, w których systemy autonomiczne mogą być podatne na błędy. Dyskusje na temat odpowiedzialności w takich sytuacjach stają się coraz bardziej istotne, zwłaszcza w obliczu rosnącej popularności sztucznej inteligencji w samochodach.

Ruch drogowy, finanse i ekonomia wyszukiwania informacji za pośrednictwem wyszukiwarek to złożone i wieloaspektowe zagadnienia. Kluczowe aspekty związane z tym obszarem obejmują wpływ SEO na widoczność witryny oraz znaczenie wysokiej jakości treści w przyciąganiu użytkowników. Wyszukiwarki odgrywają kluczową rolę w dystrybucji informacji i znajdowaniu odbiorców. Należy pamiętać, że skuteczna promocja wymaga nie tylko optymalizacji strony, ale także zrozumienia potrzeb użytkowników. W rezultacie kompetentne zarządzanie ruchem i zasobami ekonomicznymi staje się podstawą udanego działania w przestrzeni online.

Istnieje wiele pytań dotyczących „produktu” stworzonego przez sztuczną inteligencję. Czy odpowiedzi generowane przez sztuczną inteligencję mogą być objęte prawem autorskim? Jeśli tak, to kto jest właścicielem tych praw? Rozważmy sytuację, w której ChatGPT pomaga studentowi napisać pracę dyplomową, a system antyplagiatowy uznaje ją za oryginalną z oceną 70–80%. Czy w takim przypadku jest to praca naukowa? Czy student ma prawo do korzystania z tej pracy? Nie będziemy zagłębiać się w wewnętrzne regulacje instytucji edukacyjnych, które mogą ograniczać korzystanie z ChatGPT, ponieważ w podobny sposób można by zakazać dostępu do internetu lub poszczególnym autorom.

Istnieje wiele pytań dotyczących praw do materiałów źródłowych wykorzystywanych do szkolenia sztucznej inteligencji i generowania jej odpowiedzi. Stosowanie przepisów w tym obszarze nie ma jednoznacznych rozwiązań. Kluczowym precedensem jest sprawa Authors Guild Inc. przeciwko Google Inc., która potwierdziła, że ​​Google wykorzystało materiały chronione prawem autorskim, takie jak teksty książek, do stworzenia usługi Google Books. Sprawa ta otwiera możliwości analogii w kontekście korzystania z materiałów w usługach opartych na sztucznej inteligencji, podnosząc istotne pytania dotyczące legalności i etyki takiego wykorzystania. Ważne jest, aby rozważyć, jak istniejące normy prawne mogą mieć zastosowanie do nowych technologii i jak będą się one rozwijać w przyszłości.

Obecnie toczy się ważny proces sądowy, w którym Getty Images, wiodący bank zdjęć, wniósł pozew przeciwko Stability AI, firmie tworzącej sztuczną inteligencję. Głównym powodem pozwu jest wykorzystanie obrazów bez zgody właścicieli praw autorskich do szkolenia sztucznej inteligencji. Równoległy pozew zbiorowy toczy się przeciwko OpenAI i Microsoftowi w związku z wykorzystaniem kodu źródłowego hostowanego w repozytorium GitHub do szkolenia ich zautomatyzowanego narzędzia programistycznego, GitHub Copilot. Sprawy te podkreślają wagę egzekwowania praw autorskich w erze szybkiego rozwoju technologicznego i sztucznej inteligencji.

Ciekawie będzie obserwować, jak będą ewoluować praktyki ochrony praw właścicieli „materiałów źródłowych”, które stanowią podstawę szkolenia różnych systemów sztucznej inteligencji. Ważne jest zrozumienie, w jaki sposób będą chronione prawa autorów treści wykorzystywanych w szkoleniu sztucznej inteligencji i jak wpłynie to na późniejsze wyniki generowane przez te systemy. Przyszłość praktyki w tym obszarze może decydować o równowadze między innowacjami w dziedzinie sztucznej inteligencji a ochroną własności intelektualnej.

Ważne jest również uwzględnienie wpływu organów antymonopolowych. Jeśli twórcy sztucznej inteligencji zyskają przewagę w zakresie praw autorskich i odpowiedzialności na mocy obowiązujących przepisów, mogą zostać uruchomione mechanizmy egzekwowania przepisów antymonopolowych. Może to prowadzić do konieczności rewizji istniejących przepisów i regulacji w celu zapewnienia uczciwej konkurencji i ochrony interesów rynkowych. Rola organów ochrony konkurencji staje się kluczowa w regulacji nowych technologii, takich jak sztuczna inteligencja, co podkreśla wagę holistycznego podejścia do aspektów prawnych w tym obszarze.

W lutym 2021 r. Australia uchwaliła ustawę zobowiązującą Google i Facebooka do płacenia australijskim mediom za korzystanie z ich treści w kanałach informacyjnych i wyszukiwarkach. Ustawa ta może również wpłynąć na inne duże firmy technologiczne o wpływie na rynek. Głównym powodem uchwalenia ustawy była utrata dochodów z reklam w tradycyjnych mediach, które zostały przeniesione na korporacje technologiczne. Google początkowo groziło opuszczeniem rynku australijskiego, ale ostatecznie zgodziło się na warunki nowej ustawy. Ten przykład podkreśla znaczenie ochrony interesów branży medialnej w gospodarce cyfrowej.

Podobne zmiany prawdopodobnie zajdą w wynikach wyszukiwania generowanych przez sztuczną inteligencję. Wraz z rozwojem technologii AI, wyniki wyszukiwania stają się bardziej spersonalizowane i trafne dla użytkowników. Może to prowadzić do zmian w sposobie prezentowania i postrzegania informacji online. Nowe algorytmy mogą wpływać na widoczność treści, co jest ważne przy optymalizacji stron internetowych i poprawie ich pozycji w wyszukiwarkach.

Mikhail Stetsenko jest partnerem w kancelarii prawnej Legit. Specjalizuje się w świadczeniu usług prawnych w różnych dziedzinach prawa, w tym w prawie korporacyjnym, podatkowym i pracy. Mikhail posiada bogate doświadczenie w doradzaniu klientom w zakresie zgodności z przepisami i ochrony ich interesów w sporach sądowych. Jego profesjonalizm i dogłębna wiedza prawnicza pozwalają mu skutecznie rozwiązywać złożone problemy prawne i zapewniać rzetelne wsparcie prawne firmom.

Inteligentne wyszukiwanie z AI i mediami

W ostatnich latach media stanęły przed poważnymi wyzwaniami w świecie produktów cyfrowych. Platformy takie jak Zen, VKontakte i inne sieci społecznościowe ograniczają użytkownikom możliwość opuszczania swoich stron i przechodzenia do serwisów medialnych. Wyszukiwarki niechętnie udostępniają również treści medialne, co ogranicza ich widoczność. Nowe podejście do wyszukiwania informacji może fundamentalnie zmienić tradycyjny model mediów i system dystrybucji treści, zagrażając ich istnieniu.

Wyobraź sobie, że zadajesz wyszukiwarce pytania o wydarzenia, wiadomości lub inne tematy. W zasadzie „googluje” ona wyniki, przetwarzając informacje z różnych źródeł i generując na ich podstawie jasną odpowiedź. Jednak nie podaje żadnych linków do źródeł. Wyszukiwarka korzysta z treści pochodzących z mediów, na przykład przepisów na barszcz ze strony Lifehacker lub podręczników Java od Skillbox Media. Nie dzieli się jednak ruchem z tymi zasobami, lecz wykorzystuje ich informacje za darmo i zarabia na reklamach, co rodzi pytania o uczciwość takiego podejścia.

W tej sytuacji media znajdują się w niekorzystnej sytuacji: nie ma ruchu, materiały pozostają niezrozumiałe dla odbiorców, a korporacje wykorzystują ich treści do własnych celów komercyjnych, nie zapewniając autorom żadnych korzyści finansowych.

Jednym z potencjalnych rozwiązań tego problemu mogłyby być modele opłat licencyjnych podobne do tych stosowanych w branży muzycznej. W tym systemie stacje radiowe wpłacają środki na wspólny fundusz, z którego wyspecjalizowane stowarzyszenie rozdziela pieniądze między muzyków, uwzględniając interesy wszystkich stron. Alternatywnie, można by opracować przejrzysty, niezależny system, który śledziłby liczbę żądań sztucznej inteligencji dotyczących określonych treści w różnych zasobach internetowych. Na podstawie takich danych można by stworzyć sprawiedliwy model dystrybucji środków między źródła treści.

Model monetyzacji treści mógłby stać się atrakcyjnym źródłem dochodu dla mediów. Tworzenie wysokiej jakości treści, które plasują się w rankingach wyszukiwarek, mogłoby generować regularne tantiemy dla ich twórców. Może to doprowadzić do powstania wyspecjalizowanych działów w wyszukiwarkach, zajmujących się tworzeniem i aktualizacją treści dla najpopularniejszych zapytań. W ten sposób wysokiej jakości treści nie tylko zwiększają widoczność w wyszukiwarkach, ale także otwierają nowe możliwości generowania przychodów.

To tylko nasza krótka, futurologiczna notatka na temat bieżących wydarzeń. Aby uzyskać bardziej realistyczne prognozy, skontaktowaliśmy się z menedżerem ds. mediów Wsiewołodem Pulem.

Po tym, jak ChatGPT, uruchomiony 30 listopada, przyciągnął 100 milionów użytkowników w zaledwie dwa miesiące, Google wydało „kod czerwony” z powodu poważnego zagrożenia dla modelu biznesowego i podstawowych produktów firmy. Warto zauważyć, że ChatGPT opiera się na modelu GPT-3.5, który istnieje od około dwóch lat. OpenAI aktywnie rozwija bardziej zaawansowany, czwarty model generatywnej sieci neuronowej. Świat został więc zszokowany technologią, która jest obecnie uważana za przestarzałą.

Wpływ mediów na współczesny świat staje się coraz bardziej znaczący. Zmiany w technologii, mediach społecznościowych i preferencjach konsumentów kształtują nowy krajobraz dla branży medialnej. Pojawienie się platform cyfrowych i urządzeń mobilnych zmienia sposób, w jaki ludzie konsumują informacje, co wymaga od mediów dostosowania się do tych nowych warunków.

Wraz z rozwojem internetu i mediów społecznościowych, tradycyjne źródła informacji stają w obliczu konkurencji ze strony niezależnych blogerów i twórców treści. Zmusza to organizacje medialne do ponownego rozważenia strategii rozpowszechniania informacji i angażowania odbiorców. Skuteczne wykorzystanie technik SEO może poprawić widoczność treści, co z kolei przyczynia się do wzrostu ruchu i przyciągania nowych czytelników.

Co więcej, zmiany w algorytmach wyszukiwarek i polityce platform mogą znacząco wpłynąć na sposób, w jaki media docierają do odbiorców. Dlatego ważne jest, aby stale monitorować trendy i dostosowywać się do nowych wymagań, aby pozostać istotnym i konkurencyjnym.

Wpływ na media wykracza zatem poza zmiany technologiczne, obejmując strategiczne podejście do tworzenia i dystrybucji treści, co ostatecznie decyduje o sukcesie organizacji medialnych w erze cyfrowej.

Branża medialna stoi u progu znaczących zmian, a „kod czerwony” stał się istotny dla wszystkich jej uczestników. ChatGPT wyznacza ważny etap w długoletnim trendzie automatyzacji i optymalizacji procesów tworzenia i przetwarzania treści tekstowych. Jako niekwestionowany lider w tej dziedzinie, zmusza media do ponownego przemyślenia podejścia do produktów i modeli biznesowych. W przeciwieństwie do wielu firm, które postrzegają treści jako narzędzie sprzedaży, dla mediów to właśnie treści są produktem bazowym. Ta nowa rzeczywistość wymaga od organizacji medialnych adaptacji i innowacji, aby utrzymać konkurencyjność i skutecznie reagować na wyzwania czasów.

Mamy do czynienia z silnym konkurentem, dysponującym potężnymi algorytmami, zaawansowanymi technologiami i znacznymi inwestycjami. Jednak osoby o wyjątkowych cechach wciąż mają potencjał, by sprostać temu wyzwaniu.

Tworzenie treści z wykorzystaniem sieci neuronowych stało się powszechną praktyką w branży medialnej i przynosi zauważalne rezultaty. Wiele agencji informacyjnych zautomatyzowało już proces pisania w oparciu o analizę surowych danych, takich jak relacje sportowe i sprawozdania finansowe. Jednak niedawny sukces ChatGPT pokazuje potrzebę przejścia od eksperymentów do przemyślanej strategii. Na przykład BuzzFeed ogłosił zamiar wykorzystania ChatGPT do tworzenia interaktywnych testów i quizów, co pozytywnie wpłynęło na cenę akcji spółki. Wdrożenie takich technologii nie tylko optymalizuje proces produkcji treści, ale także znacząco poprawia ich jakość i zaangażowanie odbiorców.

Wykorzystanie sieci neuronowych w branży medialnej może znacząco obniżyć koszty tworzenia treści, co stanowi poważne zagrożenie dla wielu twórców. Redukcja kosztów będzie kosztem profesjonalistów tworzących unikalne materiały. Autorzy nie będą w stanie konkurować z sieciami neuronowymi pod względem wolumenu produkcji treści. Dlatego twórcy treści muszą rozwijać swoje umiejętności w zakresie pisania, ilustrowania, fotografii i produkcji wideo. Ważne jest nie tylko, aby robić więcej tych rzeczy, ale także dążyć do jakości, eksperymentować z formami i stosować podejścia postmodernistyczne. Sieci neuronowe nie są w stanie oddać wyjątkowej, organicznej natury i kreatywności, jaką oferują ludzie. To jedyny sposób, aby pozostać istotnym w obliczu coraz bardziej zautomatyzowanej produkcji treści.

Wątroba to kluczowa przewaga konkurencyjna dziennikarzy w porównaniu z robotami. Pozwala im nawiązywać relacje oparte na zaufaniu z wartościowymi źródłami informacji w nieformalnym otoczeniu. Do tej pory żadna generatywna sieć neuronowa nie była w stanie stworzyć własnego, zaufanego źródła, które mogłoby dostarczać informacji blisko kierownictwa firmy. Podkreśla to wyjątkowość ludzkiego podejścia do dziennikarstwa, w którym osobiste relacje i umiejętności komunikacyjne pozostają kluczowymi elementami pozyskiwania ekskluzywnych materiałów.

Sieci neuronowe znacząco zmienią podejście do wyszukiwania informacji i przekształcą związany z tym biznes. Dzięki nim wyszukiwarki staną się bardziej inteligentne, umożliwiając użytkownikom szybsze i dokładniejsze znajdowanie potrzebnych informacji. Analizując duże wolumeny danych, sieci neuronowe mogą uwzględniać kontekst zapytań, preferencje i zachowania użytkowników. Zapewni to bardziej spersonalizowane wyniki wyszukiwania.

Sieci neuronowe otworzą nowe możliwości dla firm. Firmy będą mogły optymalizować swoje strategie marketingowe, wykorzystując dokładne dane dotyczące preferencji i trendów konsumenckich. Automatyzacja procesów, takich jak przetwarzanie zapytań klientów i tworzenie treści, również stanie się bardziej efektywna dzięki wdrożeniu technologii sieci neuronowych.

W związku z tym wdrożenie sieci neuronowych w wyszukiwarce nie tylko poprawi jakość dostarczanych informacji, ale także stworzy nowe modele biznesowe oparte na danych i analityce. Doprowadzi to do wzrostu konkurencyjności firm, które będą w stanie dostosować się do szybko zmieniających się warunków rynkowych.

Generatywne sieci neuronowe w wyszukiwarce mogą znacząco zoptymalizować czas i zasoby użytkowników. Chociaż jakość wyników wyszukiwania jest obecnie wysoka dzięki ciągłej pracy algorytmów, użytkownicy nadal muszą wybierać spośród pierwszych wyników, nawigować do różnych witryn i szukać informacji, które nie zawsze w pełni odpowiadają ich potrzebom. Wdrożenie technologii sieci neuronowych może poprawić dokładność wyników wyszukiwania, oferując bardziej trafne odpowiedzi i zmniejszając liczbę kliknięć między stronami w celu znalezienia poszukiwanych informacji.

Użytkownicy mogą przypadkowo kliknąć reklamę zamiast trafnego linku, który generuje przychody dla wyszukiwarek. Pytanie o to, jak reklama będzie działać w połączeniu z chatbotami, pozostaje otwarte, ale jest mało prawdopodobne, aby firmy zrezygnowały z tego formatu, ponieważ reklama stanowi podstawę ich działalności. W nowej wersji wyszukiwarki Bing firma Microsoft oferuje różne tryby wyświetlania wyników wyszukiwania. Wśród nich znajduje się tradycyjny format z sugestiami sztucznej inteligencji oraz interfejs czatu przypominający ChatGPT. Ta różnorodność pozwala użytkownikom wybrać najwygodniejszy sposób otrzymywania informacji.

Gromadzenie informacji ze stron internetowych i przekształcanie ich w odpowiedzi chatbotów może zakłócić dotychczasową relację między właścicielami witryn a firmami wyszukiwawczymi. Istotą tej nieformalnej umowy jest to, że właściciele dostarczają informacje, a wyszukiwarki otrzymują ruch, który następnie może być monetyzowany lub przekształcany w subskrypcje. Podobna sytuacja ma miejsce w sieciach społecznościowych, które niechętnie przekazują ruch do zasobów zewnętrznych. Wyszukiwarki wykorzystujące sieci neuronowe będą zmuszone do rewizji umów z mediami i innymi serwisami. Jest to konieczne, aby legalnie wykorzystywać ich dane w nowych algorytmach wyszukiwania. Możliwe są nawet modele podziału przychodów, w których firmy dzieliłyby się swoimi przychodami ze źródłami informacji. Stworzenie nowych form współpracy jest ważne dla stabilizacji relacji między uczestnikami ekosystemu online.

Dzięki nowej umowie media informacyjne zyskają silniejszą pozycję, ponieważ chatboty i sieci neuronowe będą musiały pozyskiwać informacje o najnowszych wydarzeniach z tych źródeł. Jednocześnie media koncentrujące się na treściach evergreen mogą stracić swoją siłę przetargową. Ich materiały są indeksowane jednorazowo, a informacje pozostają w bazie wiedzy wyszukiwarki przez długi czas. Serwisy takie jak Lifehacker, które opierają się na zapytaniach o niskiej częstotliwości i długim okresie użytkowania, mogą w krótkim okresie stracić znaczną część ruchu. Ta zmiana podkreśla wagę dostosowywania treści do nowych wymagań wyszukiwarek i zapewniania trafności informacji, aby utrzymać stały napływ odwiedzających.

Zasoby medialne muszą dostosować się do obsługi niszowych, wyspecjalizowanych odbiorców, a nie do zadowalania ogółu społeczeństwa. Brian Morrissey, były prezes i redaktor naczelny Digiday, zauważył w wywiadzie dla Axios, że nie da się konkurować z robotami pod względem wydajności. Zawsze wygrywają. Skuteczną strategią dla mediów jest znalezienie unikalnych podejść i tworzenie treści, które odpowiadają konkretnym zainteresowaniom i potrzebom grupy docelowej. Zwiększy to lojalność użytkowników i wzmocni ich pozycję rynkową.

Generatywne sieci neuronowe, pomimo swoich osiągnięć, stoją przed szeregiem wyzwań. Po pierwsze, istnieje ryzyko tworzenia nieetycznych treści, które mogą być wykorzystywane w sposób szkodliwy. Po drugie, systemy te mogą reprodukować błędy osadzone w danych treningowych, co prowadzi do dyskryminacyjnych wyników. Istotne pozostają również ograniczenia techniczne: modele generatywne mogą generować obrazy i tekst niskiej jakości lub nieodpowiednie. Ponadto istnieje problem praw autorskich, ponieważ treści generowane przez sieci neuronowe mogą naruszać prawa oryginalnych autorów. Wreszcie, wielu użytkowników nie rozumie, jak działają te technologie, co tworzy bariery utrudniające zaufanie i korzystanie z takich systemów. Rozwiązanie tych problemów wymaga dokładnej analizy i opracowania standardów etycznych dotyczących wykorzystania generatywnych sieci neuronowych. Sieci neuronowe wciąż borykają się z trudnościami w odróżnianiu faktów od fikcji. W niektórych przypadkach modele generatywne generują informacje samodzielnie, co specjaliści od sztucznej inteligencji nazywają halucynacjami. Sam spotkałem się z podobną sytuacją: kiedy poprosiłem ChatGPT o zaproponowanie tematu dla portalu turystycznego o Rosji, portal zaproponował „najciekawsze rosyjskie hotele lodowe” i nawet udostępnił listę tych rzekomo istniejących obiektów. Jednak po dalszych badaniach okazało się, że takie hotele nie istnieją, a jedynie hostel pod Irkuckiem o nazwie zawierającej słowo „lód”. Takie przypadki zostały udokumentowane wielokrotnie i podkreślają wagę krytycznego podejścia do informacji generowanych przez sieci neuronowe.

Chociaż sieci neuronowe mogą wskazywać źródła informacji, nikt nie jest odporny na możliwość cytowania niewiarygodnych danych. Problem ten jest istotny i wymaga uwagi, a choć rozwiązania mogą zostać znalezione w przyszłości, na razie pozostaje poważny. Odpowiedzialność za weryfikację faktów spoczywa w dużej mierze na użytkownikach. Na przykład, nowa strona wyszukiwarki Bing firmy Microsoft głosi: „Proszę dokładnie sprawdzić fakty przed podjęciem decyzji lub działaniem na podstawie wyników wyszukiwania Bing”.

Wsiewołod Puła jest doświadczonym menedżerem mediów, redaktorem i trenerem medialnym. Obecnie pełni funkcję redaktora naczelnego projektu Russia Beyond i jest współzałożycielem platformy MediaToolbox. Jego doświadczenie zawodowe obejmuje zarządzanie projektami medialnymi i szkolenie nowych specjalistów w zakresie produkcji medialnej. Wsiewołod aktywnie promuje rozwój wysokiej jakości treści i edukację medialną.

Wnioski

  • Wszystko jest niesamowicie skomplikowane.
  • Zobaczymy.
  • Pilnie muszę obejrzeć ponownie Matrixa, Terminatora i Resident Evil. To doświadczenie może się okazać przydatne.

Subskrybuj nasz kanał na Telegramie, aby być na bieżąco z ciekawymi materiałami na temat kodowania i programowania. Dzielimy się przydatnymi wskazówkami, istotnymi wiadomościami i unikalnymi zasobami, które pomogą Ci doskonalić umiejętności programistyczne. Bądź na bieżąco z najnowszymi trendami i odkrywaj nowe horyzonty w świecie kodowania.

Sąd orzekł zakaz działań Meta Platforms Inc. w Rosji związanych z wdrażaniem sieci społecznościowych Facebook i Instagram. Podstawą tej decyzji było oskarżenie o działalność ekstremistyczną.

Przeczytaj także:

  • Dziwne języki programowania: Szekspir, Fortran, Lisp, Brainfuck i wszystko-wszystko-wszystko
  • Test: czy sieci neuronowe naprawdę potrafią to zrobić?
  • Biblioteka TensorFlow: pisanie sieci neuronowej i badanie zasad uczenia maszynowego