Nieruchomosci-online.pl - Tu zaczyna się dom tu zaczyna się dom

Sztuczna inteligencja, czyli… co? Rozmowa z Petrosem Psyllosem

Artykuł pochodzi z magazynu ESTATE

Czytaj cały numer!

            Pobierz numer 03/2023
Dominika Studniak
Komentarze

fot.: petrospsyllos.com

Sztuczna inteligencja to temat podgrzewany od miesięcy, który na wielu działa jak haczyk. Przyciąga i często budzi skrajne emocje. O tym, dlaczego warto zrozumieć, czym tak naprawdę jest sztuczna inteligencja i jak się rozwija, by umieć spojrzeć na nią racjonalnie i czerpać z niej realne korzyści, rozmawiam z Petrosem Psyllosem – elektronikiem, programistą i innowatorem, który w ramach swojej działalności naukowo-wynalazczej zajmuje się m.in. zastosowaniami sztucznej inteligencji, uznanym przez amerykańskiego „Forbesa” za jednego z 30 najlepszych europejskich innowatorów poniżej trzydziestki, zdobywcą wielu nagród za działalność innowacyjną.

O sztucznej inteligencji ostatnio nie przestaje się mówić. To buzzword, modny temat w mediach. Ale przecież sztuczna inteligencja towarzyszy nam już jakiś czas. Jaka jest jej historia?

Tak, tak naprawdę sztuczna inteligencja zaczęła się już w ubiegłym wieku. W 1956 roku termin „sztuczna inteligencja” sformułowano na konferencji w Dartmouth College. Wtedy postawiono sobie cel opracowania w 2 miesiące takich metod sztucznej inteligencji, które będą robiły to, co w pewnych zakresach robi człowiek. Okazało się jednak, że było to myślenie życzeniowe i nic z tego nie wyszło. Stan wiedzy o mózgu był w jeszcze większych powijakach niż obecnie, nie było odpowiednio rozwiniętej techniki i samo podejście do tworzenia sztucznej inteligencji było symboliczne, opierające się na regułach i logice. To znaczy, że wizualizowano sobie to, jak może działać mózg, i starano się przełożyć wiedzę człowieka do algorytmu komputerowego, który miał symulować jego proces myślenia. Wszystkie te reguły były ograniczone do takich, jakie twórca systemu mógł przewidzieć. To stare podejście, nie zakończyło się sukcesem.

Oczywiście, były też już wtedy prowadzone badania nad sieciami neuronowymi. Na początku lat 60. Frank Rosenblatt stworzył pierwszy elektroniczny model mózgu. Wykorzystał wiedzę, którą wtedy miał o mózgu i odwzorował jego budowę w postaci elektrycznej maszyny z silnikami i potencjometrami. W tamtym czasie było dużym zaskoczeniem, że maszyna, w której połączenie sztucznych neuronów opiera się na przypadkowości, na zasadach rodem z Las Vegas, zadziałała i nawet rozpoznawała proste figury. Tylko tak naprawdę to było bardzo proste. Później, już wraz z początkiem komputeryzacji, sieci neuronowe uruchamiane były w formie programów komputerowych. Tylko znów nie mieliśmy tak spektakularnych efektów jak teraz, bo komputery były strasznie wolne i miały mało pamięci. Ale wkrótce miało się to zmienić, bo rozwój technik obliczeniowych rośnie w tempie wykładniczym. Od lat 60. moc komputera wzrosła o milion milionów razy przy spadku ceny o milion milionów milionów razy.

Od lat 60. XX w. moc komputera wzrosła o milion milionów razy przy spadku ceny o milion milionów milionów razy.

Była idea, a nie było narzędzi? Rozwój technologiczny nie nadążał jeszcze za wiedzą?

Tak naprawdę sieci neuronowe, czy nawet głębokie sieci neuronowe, pojawiły się już w ubiegłym wieku w formie pewnych wzorów matematycznych, tylko nie było wtedy sprzętu i też danych, żeby te sieci uczyć, siłą rzeczy dominowało więc to podejście klasyczne, by wiedzę ekspertów kodować w algorytmach. Wymaga to mniej mocy przerobowych, jeżeli chodzi o sprzęt.

Ale w XXI wieku już się to zmieniło i naukowcy postanowili inspirować się bardziej biologią i tym, jak nasz mózg funkcjonuje. Budowano bardziej skomplikowane sieci neuronowe, które miały dużo więcej parametrów w porównaniu do tych dawnych sieci. W ten sposób rozwinęła się dziedzina nazywana uczeniem maszynowym, w ramach której tworzymy programy – sztuczne sieci neuronowe – inspirując się budową ludzkiego mózgu, neuronami, które udało się matematycznie opisać. I to dalej jest to oczywiście uproszczenie, bo gdybyśmy chcieli zasymulować naszą biologiczną sieć neuronową na niskim poziomie, to potrzebowalibyśmy aż 10^19 zliczeń na sekundę, co przewyższa moc wszystkich superkomputerów.

Zatem z biegiem lat wszystko przyspieszyło i potaniało. Po 2013 roku naukowcy opracowali pewne modyfikacje technik sztucznych sieci neuronowych, nastąpił ich duży rozwój. Szybkie komputery, szeroko dostępne karty graficzne, nowe techniki uczenia maszynowego, które są pewnym udoskonaleniem tego, co wymyślano w ubiegłym wieku. To wszystko sprawiło, że sztuczna inteligencja stała się gorącym tematem.

A teraz? Co się takiego stało, że w zasadzie od początku 2023 roku mamy boom na sztuczną inteligencję i to w każdej branży? Czy to tylko za sprawą ChataGPT, który zrobił furorę i zdobył miliony użytkowników bardzo szybko?

Tak, to jest efekt głównie ChataGPT, że teraz tak dużo mówimy o sztucznej inteligencji. A ChatGPT jest niczym innym jak ogromną siecią neuronową. Takim nowym rodzajem sieci neuronowej, który powstał wraz z modelem GPT 1 w 2017 roku, a później GPT 2 w 2019 roku. Wówczas jednak to były nieco mniejsze sieci, miały małe możliwości i też mniej danych wykorzystywało się do ich uczenia. Były one przy tym trudne w użyciu, trzeba się było znać na programowaniu, żeby z nich korzystać. Później w 2020 pojawił się GPT 3, ale znowu dostęp był jeszcze bardzo ograniczony.

Pierwszy ChatGPT powstał na bazie GPT 3.5, który jest ulepszeniem GPT 3. Od tego momentu sztuczna inteligencja stała się szeroko dostępna. Wystarczy się zalogować i można z nią rozmawiać, pisząc z nią, a to przecież bardzo naturalna forma kontaktu. Nie trzeba mieć żadnych programistycznych umiejętności, wszystko odbywa się w formie czatu, takiego jak np. na Messengerze. GPT 3 był dość ograniczony, utrzymywał krótszy kontekst rozmowy, bardziej halucynował i generował głupoty. W GPT 3,5 rozwiązano w pewnym sensie ten problem: kontekst rozmowy mógł być już dłuższy, odpowiedzi bardziej wiarygodne i trochę mniej halucynował niż model GPT 3. Ubranie GPT 3.5 w formę ChatuGPT sprawiło, że konwersacja z AI była bardzo naturalna, więc to się mocno rozeszło. Chat GPT w grudniu zanotował milion użytkowników, a już pod koniec stycznia 100 milionów użytkowników. Ludzie byli zaskoczeni, że AI tak szybko się rozwinęła, ale te techniki istniały już parę lat temu. Nie każdy o tym jednak wiedział.

ChatGPT sprawił, że rozmowa ze sztuczną inteligencją stała się bardzo naturalna i łatwo dostępna.

A na jakim etapie jesteśmy obecnie? Co takiego wniósł model GPT 4?

GPT 4, na którym obecnie bazuje najnowszy ChatGPT, jeszcze mniej halucynuje, daje jeszcze bardziej wiarygodne odpowiedzi i ma już przebłyski pewnego rozumienia. Potrafi rozwiązywać zagadki logiczne. Egzaminy medyczne czy prawnicze zdaje wśród 10% najlepszych zdających. Dla porównania poprzedni chat plasował się wśród 10% najgorszych zdających. Postęp mamy ogromny. Sami programiści, którzy tworzyli czata, byli zaskoczeni, że tak dużo potrafi model uczony na bazie tekstu, a właściwie na bazie tego, żeby przewidywał kolejne słowa w tekście. Np. rozwiązuje testy na inteligencję, a nie był przecież konkretnie tego uczony. Więc to jest bardzo zaskakujące, że nie potrafimy przewidzieć tego, jak będzie działała sieć po procesie uczenia i nie do końca wiemy, jak to tam wszystko w środku działa. To znaczy znamy zasady, na jakich opiera się sieć. Można byłoby je wytłumaczyć 10-latkowi. Tylko te sieci są tak złożone, że prześledzenie i zrozumienie tego, jak przez nie przepływają sygnały, przerasta możliwości interpretowania przez mózg ludzki. Mówimy, że jest to taka czarna skrzynka.

Jeżeli chodzi o modele językowe, to postęp jest dość spory. Liczba parametrów, które można porównać do synaps w naszej głowie, rośnie wykładniczo. W mózgu mamy 100 bilionów parametrów. Ile ma ich GPT 4 nie ujawniono, ale przykładowo chiński model Wu Dao 2.0 ma 1,75 biliona parametrów. Coraz szybciej zbliżamy się więc do tej złożoności, którą mamy w mózgu. Ale tu pojawia się pytanie, czy kolejne etapy rozwoju tych sieci będą przynosiły znowu takie jakościowo-skokowe wzrosty skuteczności działania sztucznej inteligencji. Na razie wszystko pokazuje, że takie zwiększanie liczby parametrów w tych modelach przynosi oczekiwane efekty. Ale jak długo to potrwa? Według mnie, zaraz sięgniemy sufitu i trzeba będzie znów wrócić do biologii, bardziej inspirować się mózgiem, by konstruować sieci jeszcze bardziej zbliżone do tego, jak działa nasz mózg. Wciąż też mamy problem z uczeniem takich sieci – człowiekowi wystarczy, że zobaczy coś raz lub kilka razy i się nauczy. A takiej sieci trzeba pokazywać to samo tysiące lub miliony razy. Musimy więc odkryć, jak jeszcze efektywniej uczyć sztuczną inteligencję, by była bardziej podobna do nas.

Wcześniej sztuczną inteligencję kojarzyliśmy z robotami rodem z filmów sci-fi, ostatnio na wzroście popularności ChataGPT czy Midjourney powszechnie utożsamiamy ją z generowaniem tekstów i obrazów. Ale to przecież nie wszystko. Czym jest sztuczna inteligencja?

To bardzo szeroka dziedzina, obszar badań, jeżeli chodzi o informatykę, o kognitywistykę, psychologię itd. Istnieją różne metody sztucznej inteligencji. Dzisiaj największe triumfy święcą sieci neuronowe, bo to najbardziej dynamiczna metoda sztucznej inteligencji. To tu mamy właśnie ChatGPT i inne programy generatywnej sztucznej inteligencji, które generują teksty, obrazy, programy komputerowe, piosenki, posty na social media czy prezentacje w Power Poincie. Ale oprócz niej są także np. systemy ekspertowe, o których mówiłem, algorytmy mrówkowe czy algorytmy genetyczne, czyli symulujące procesy ewolucji darwinowskiej w komputerze. Polega to na tym, że każdy osobnik reprezentuje pewne rozwiązanie problemu i te, które najlepiej problem rozwiązują, przekazują geny dalej, udoskonalają się, a pod koniec procesu otrzymujemy rozwiązanie problemu, czyli byt, który jest zestawem pewnych parametrów, które najlepiej rozwiązują dany problem w danym środowisku. Takim problemem może być wykonanie jakiegoś elementu statku kosmicznego. Człowiek nie musi wiedzieć, jak to zrobić, uruchamia proces ewolucji, który dąży do tego, żeby znaleźć rozwiązanie danego problemu. Kilka lat temu wykorzystano tę metodę, aby zaprojektować drzwi w Boeingach czy Xenoboty – pierwsze biologiczne roboty zdolne do samoreplikacji.

Te wszystkie techniki AI można porównać do archipelagu wysp, gdzie te wyspy są metodami sztucznej inteligencji, które są od siebie często niezależne, właśnie tak jak wyspy – tak samo bardzo często nie ma jakościowego połączenia pomiędzy metodami sztucznej inteligencji.

Wszystkie techniki AI można porównać do archipelagu wysp, które są od siebie często niezależne.

Wspomniany algorytm genetyczny nie ogarnie wszystkiego, jest do jednych zastosowań, sieci neuronowe z kolei są wykorzystywane do czegoś innego, przykładowo do wykrywania nowotworów na zdjęciach rentgenowskich, rozmawiania z nami w formie chatu czy rozpoznawania znaków w samochodach autonomicznych. Ale można pożenić te 2 techniki. Kiedyś sam pracowałem nad tym naukowo, aby połączyć sieci neuronowe z algorytmem genetycznym, w ramach którego sieci rozmnażały się i doskonaliły w swojej strukturze i działaniu.

Zaskakujące jest jednak to, że teraz wraz z rozwojem modeli językowych typu ChatGPT widać, że już chyba mamy pewien okruch ogólnej sztucznej inteligencji. Możliwości czata pokazały, że można go wykorzystywać nie tylko do wąskiego celu, np. imitowania rozmowy z człowiekiem albo pisania poematów w stylu jakiegoś pisarza. Ten model może robić różne rzeczy. Pisać prace magisterskie, rozwiązywać testy na inteligencję, generować kod komputerowy, odpowiadać na różne pytania medyczne, prawnicze itd. Widać już oznaki rozumienia, choć czasami, w pewnych obszarach, sieć dalej przypomina zwykłą papugę stochastyczną, która nie rozumie tego, co pisze. Mamy jeszcze problem z tym, że nie można do końca wykluczyć ryzyka halucynacji i generowania głupot, ale człowiek przecież czasami też to robi – gdy nie ma wystarczającej wiedzy na jakiś temat, to też konfabuluje i wymyśla niestworzone rzeczy. Wygląda to mniej więcej podobnie.

Dzisiaj mamy więc pewien okruch, wstęp do ogólnej sztucznej inteligencji. Ale to dopiero początek. Do tego nie za bardzo rozumiemy, jak te sieci w takich skalach działają, stąd moje porównanie do czarnej skrzynki.

fot. petrospsyllos.com

Mówi Pan o czarnej skrzynce. Czy może się ona okazać puszką Pandory?

Jeżeli chodzi o dzisiejsze modele językowe – bo nie mówimy tutaj o uzbrojeniu czy broni autonomicznej, gdzie też takie sieci, tylko innego rodzaju, są wykorzystywane – jeżeli chodzi o sam ChatGPT to tutaj nie ma obawy, że coś wymknie się spod kontroli. Oczywiście, może on trafić w niepowołane ręce. To jest spore ryzyko, które się wiąże np. z wykorzystywaniem go do uprawiania propagandy. Czat może posłużyć na przykład do tego, żeby pisać w internecie komentarze w sposób automatyczny, zmieniać ludziom myślenie w ten sposób – na tym opiera się nowoczesna socjotechnika. Teraz zbliżają się wybory i jest spore zagrożenie, że takich botów, opierających się na Chacie GPT, które będą pisały różne komentarze, różne artykuły na dziwnych blogach, na Facebooku, będzie przybywało. Na razie jednak nie ma w tym intencjonalności algorytmów, to nadal narzędzie, które jest pod kontrolą człowieka, więc wszystko zależy od niego. To tak jak z dynamitem czy z brzytwą. Można wykorzystać je do różnych celów.

Możemy być spokojni, że futurystyczne wizje o tym, że sztuczna inteligencja przejmuje panowanie nad światem, to jeszcze bardzo, bardzo odległa przyszłość?

Może nie bardzo, ale jeszcze odległa. Nie zapominajmy jednak, że wszystko zmienia się w tempie wykładniczym. Ludzie myślą liniowo, a technologia rozwija się wykładniczo. By to zobrazować, można przywołać legendę o wynalazcy szachów, który kiedyś dostał propozycję nagrody od króla. Wynalazca miał wskazać, jaka to ma być nagroda. Powiedział więc, że chce ryżu, ale tyle tego ryżu, żeby na pierwszym polu szachownicy było jedno ziarenko, na drugim 2 razy więcej, czyli 2, później 2 razy więcej, czyli 4, 2 razy więcej, czyli 8, później 16, 32, 64, 128, 256, 512, 1024, 2048 i tak dalej. Król się oczywiście zgodził, bo myślał liniowo. A tu wzrost jest właśnie wykładniczy i okazuje się, że na przedostatnim polu szachownicy powinno być tyle ryżu, że trzech Ziemi obsianych całych z oceanami włącznie nie wystarczyłoby, żeby zapewnić taką ilość ryżu, jaką chciał wynalazca szachów. I to jest potęga wzrostu wykładniczego. Tak rozwijają się technologie, tak rozwija się moc komputerów, ilość pamięci, liczba parametrów w sieciach neuronowych. Choć w tym ostatnim przypadku widać nawet wzrost podwójnie wykładniczy.

Według przewidywań Raymonda Kurzweila, amerykańskiego naukowca i futurologa, w 2045 powstanie już taka sztuczna inteligencja, która będzie dużo mądrzejsza niż człowiek. Wtedy ma się pojawić tzw. osobliwość technologiczna. To taki moment, w którym rozwój technologii osiągnie tempo przewyższające zdolności ludzkiego zrozumienia i przewidywania. Może to prowadzić do gwałtownego postępu naukowego i medycznego albo stwarzać ryzyka związane z utratą kontroli nad zaawansowaną sztuczną inteligencją. Jego perspektywa stuletnia zakłada natomiast, że sztuczna inteligencja będzie bilion bilionów bilionów razy inteligentniejsza niż człowiek.

To raczej dosyć szybko, prawda?

A może być znacznie szybciej. Być może będziemy w pewnym momencie montowali sobie protezy mózgu, wzmacniacze inteligencji, żeby nadążyć za sztuczną inteligencją i rozumieć ją lepiej. Bo jeżeli ona tak szybko będzie się rozwijała, to my żadnym intelektualnym partnerem dla niej nie będziemy.

Jak w takim razie już teraz powinniśmy ją traktować? Dzisiaj jeszcze mamy do niej dystans, nie polegamy na niej w 100 procentach, weryfikujemy to, co nam zwraca. Czy w przyszłości będzie inaczej, będziemy słuchać sztucznej inteligencji?

Jeżeli okaże się, że lepiej od nas odkrywa tajemnice wszechświata, tworzy zaawansowaną fizykę, wymyśla nowe produkty, znacznie lepsze niż te, które człowiek opracowuje, odpowiada na największe problemy ludzkości, związane np. ze zmianami klimatycznymi, ze starzeniem się, i co więcej – znajduje rozwiązania, to może nie będziemy mieli wyboru. Ale to jest dłuższa perspektywa.

Dzisiaj zresztą już w pewnym sensie się jej słuchamy. Jedna z definicji, poza tą, że sztuczna inteligencja to coś, co imituje proces rozumowania człowieka, mówi, że sztuczna inteligencja to narzędzie, które służy do rozwiązywania problemów, które nie są aktywnie algorytmizowalne. Czyli gdy my, jako ludzie, nie wiemy jak napisać program, który rozwiąże jakiś problem, to bierzemy AI. Przydaje się to w medycynie, nauce, marketingu, socjotechnice, inżynierii, planowaniu dostaw itp. Na przykład weźmy na tapet problem rozpoznawania znaków drogowych w samochodach autonomicznych. Wystarczy, że światło inaczej padnie na znak i zupełnie inaczej wygląda on w kamerze. Definiowanie znaków na podstawie np. zależności kolorów pikseli, nie zda tutaj egzaminu. Działałoby w przypadku idealnym. Ale przecież warunki drogowe są dynamiczne, więc ten znak w kamerze za każdym razem może prezentować się inaczej. Bierzemy więc sztuczną inteligencję, która ma zdolność uczenia się i karmimy ją pewnymi danymi, które mogą pokazywać na bazie historycznych przykładów, jak dany problem rozwiązał człowiek – w tym przypadku to opisanie znaków drogowych jako np. nakaz skrętu w prawo, znak stopu itd. Pokazujemy tego dużo. AI się uczy, a później już sama będzie potrafiła je rozpoznawać. Innym przykładem jest wielokrotnie wspomniany ChatGPT – niech ktoś napisze tradycyjny program, korzystając z instrukcji typu „jeżeli to, to to”, który będzie tak odpowiadał na pytania jak ten chat. Jest to niemożliwe, dlatego stosujemy sztuczną inteligencję w takich obszarach.

Do czego sztuczna inteligencja służy nam już na co dzień? Jakie są jej podstawowe zastosowania w życiu codziennym?

Sztuczną inteligencję codziennie nosimy w kieszeniach, bo nasze smarfony naszpikowane są algorytmami. Dalej to kwestie biometrii, rozpoznawanie twarzy, rozpoznawania rzeczy, które są na zdjęciach, rozpoznawanie mowy, kwestie związane z filtrami spamowymi, które wykrywają niechciane maile – to też sztuczna inteligencja. Tłumaczenia – nie mówimy, że korzystamy ze sztucznej inteligencji, tylko z tłumacza Google, ale to też sztuczna inteligencja – sieć neuronowa. Niedługo pewnie będziemy mówili, że korzystamy z ChataGPT, a nie ze sztucznej inteligencji, bo tak przylgnie to określenie do wszystkiego, co jest w formie dialogowej. Tak jak w przypadku bicykla utrwaliło się sformułowanie rower, a tak naprawdę „Rover” to była firma, która produkowała bicykle. Teraz tak pewnie będzie z chatem.

Dalej, sztuczna inteligencja odpowiada za profilowanie treści, które widzimy np. na Facebooku – u każdego, co innego wyświetla się na wallu, dlatego, że sztuczna inteligencja sprofilowała daną osobę i wyświetla takie rzeczy, które będą jej się podobały i ją zaangażują. Asystenci typu Alexa lub Siri. Prognoza pogody. Sterowanie ruchem ulicznym i przewidywanie, gdzie będą korki. Z tego korzystamy już przecież powszechnie. Internet rzeczy, inteligentne domy i przetwarzanie danych z sensorów, które montujemy w domach inteligentnych. Inteligentne fabryki, przewidywanie awarii na linii montażowej. Rozpoznawanie pisma odręcznego i diagnostyka medyczna. W Chinach, w Wuhan, roboty medyczne, które jeździły od pacjenta do pacjenta i przeprowadzały wywiady medyczne. Autonomiczne drony, które rozwożą przesyłki. Latające samochody w formie dronów, które są już opracowywane w laboratoriach. Roboty społeczne w Japonii powszechne w restauracjach, w hotelach. Powstają traktory autonomiczne. W stacjach radiowych sztuczna inteligencja wybiera playlisty, żeby zapewnić jak najlepszą słuchalność. Jest tego mnóstwo, można wymieniać godzinami.

Nad sztuczną inteligencją przeszliśmy już do porządku dziennego i już nawet sobie tego nie uświadamiamy?

Sztuczna inteligencja jest wszędzie, często nas profiluje i wie o nas bardzo dużo, a my nic o niej nie wiemy, nie wiemy nawet, że jest właśnie wykorzystywana. Czasami to rodzi różne niebezpieczeństwa, jak np. w temacie deep fakeów. Dziś AI może wygenerować całkiem wiarygodne zdjęcia, teksty lub nawet filmy, które możemy pomylić z rzeczywistością. Zobaczenie czegoś na własne oczy nie będzie dowodem prawdziwości! Pewnie niedługo będziemy instalowali wykrywacze deep fakeów na swoich komputerach, tak jak dziś instalujemy antywirusy. Bo takich sztucznych kreacji będzie coraz więcej, a wytwory algorytmów będą zlewały się z naszym codziennym doświadczeniem.

A w pracy? Jak sztuczna inteligencja pomaga w obszarach zawodowych?

Sztuczną inteligencję wykorzystuje się coraz częściej np. do obsługi klienta. Jest taka firma z Nowej Zelandii, która robi awatary cechujące się empatią – osiągnęła stuprocentowe zastąpienie ludzi w obsłudze klienta i 40% rozwiązanych problemów bez udziału człowieka. Te same awatary, wykorzystywane przez jedną z firm finansowych, pomagają jej dzisiaj w trzech najbardziej irytujących obszarach, czyli wg tej firmy: w finansowaniu, braniu w leasing i ubezpieczaniu samochodu.

Osiągają lepsze wyniki niż człowiek?

Mogłoby tak być, gdyby nie fakt, że jeszcze tutaj człowiek dla człowieka jest największym narkotykiem. A takie awatary są jeszcze dość ograniczone pod względem choćby mimiki i rozumienia wszystkiego, co dana osoba mówi. Ale stają się coraz lepsze. Niedługo będziemy mieli awatary nieodróżnialne od osoby, która siedzi po drugiej stronie kamery. Oczywiście, w świecie realnym kontakty face to face zostaną jeszcze długo. Pozostaną domeną człowieka, bo jeszcze nie mamy takich mechanicznie wiernych kopii jak w serialu Westworld, które naprawdę przypominają człowieka, a nie zombi.

Jest też start-up z Tel-Awiwu, który stworzył doradcę AI analizującego intonację głosu klienta. Rozpoznaje on 400 oznak ludzkich nastrojów w postaci cech osobowości, podpowiada agentowi sprzedaży, kiedy klient traci cierpliwość i sugeruje produkty, które warto mu polecić.

Wyobrażam sobie, że w pośrednictwie też miałoby to zastosowanie.

Jak najbardziej, ale jako wsparcie, bo jeszcze o zastąpieniu człowieka w tej perspektywie bym nie mówił. Jednak nadal zaufam bardziej człowiekowi, człowiek jest dla mnie bardziej przekonujący i wolałbym bardziej rozmawiać z człowiekiem, a nie z botem. Chociaż myślę też, że to tylko kwestia czasu...

Co jeszcze może się przydać, także w pracy pośrednika?

Generowanie wizualizacji, zdjęć, czyli tutaj np. Midjourney, DALL-E 2.0. Narzędzia sztucznej inteligencji do tworzenia prezentacji typu Gamma App, storytellingu, do tworzenia kontentu, treści ogłoszeń, pisania na blogi, na Facebooka, do obsługi marketingowej – tu pomaga np. narzędzie Jasper. Są też takie ciekawe programy jak Synthesia, które pozwalają wygenerować mówiących ludzi bez potrzeby posiadania profesjonalnego studia nagrań. Dalej – np. Otter AI jest asystentem spotkania, który automatycznie przygotowuje notatkę ze spotkania z podsumowaniem. Program Compose AI z kolei może nam pomóc pisać e-maile, przyśpieszając ten proces o 40%. Są specjalne strony typu aitoolsclub.com, które zawierają listę najważniejszych narzędzi AI – do marketingu, komunikacji, zwiększania produktywności, automatyzacji procesów w firmie, wymyślania strategii sprzedaży, generowania multimediów czy tworzenia prezentacji. To, co kiedyś wymagało skorzystania z agencji marketingowych, dzisiaj może być ogarnięte przez narzędzia sztucznej inteligencji. A tych narzędzi generatywnej sztucznej inteligencji jest mnóstwo – od automatyzacji procesów do działań onboardingowych. Dzisiaj można swoje dokumenty czy regulaminy zgrać do programu i jak przychodzi nowy pracownik, to nie musi już dopytywać innych czy przeglądać ton dokumentów, sztuczna inteligencja może w ciągu sekundy rozwiązać jego problem lub wskazać kolejny paragraf w dokumentacji. Takie działanie ma np. ChatPDF, gdzie wgrywa się dokument, z którym możemy „rozmawiać”.

Jakie kompetencje musimy zatem już teraz rozwijać, żeby za sztuczną inteligencją nadążać, żeby móc z nią wydajnie pracować?

Bezwzględnie musimy się nauczyć dogadywania ze sztuczną inteligencją. A to wcale nie jest takie proste, nie wystarczy wpisać komunikat w czat, bo nie zawsze skuteczność takiego działania będzie wystarczająca. Są różne sposoby, jak się dogadać, jakie tworzyć prompty, w jaki sposób formułować zapytania, aby sztuczna inteligencja jak najlepiej nam odpowiadała i pomagała. Powinniśmy uczyć się promptingu, korzystania z narzędzi wykorzystujących sztuczną inteligencję. To jest kompetencja przyszłości i staram się tego uczyć podczas swoich szkoleń i wykładów w firmach i korporacjach na temat AI. Już dzisiaj są miejsca pracy, gdzie firmy płacą ogromne pieniądze za to, że ktoś promptuje sztuczną inteligencję i wybiera z tego, co ona wyprodukuje. Z czasem jeszcze bardziej będziemy się ograniczać do roli tego, który wybiera różne propozycje otrzymane od AI.

Przykład?

Projektowanie butów – ze 100 otrzymanych projektów wybieramy ten, który najbardziej nam odpowiada. Będziemy selekcjonerem, który wybiera to, co jest najlepsze. Są też badania, które potwierdzają, że ludzie wolą wybierać to, co stworzyła sztuczna inteligencja, np. w dziedzinie architektury. Zestawiono propozycje projektantów domów i propozycje sztucznej inteligencji. Ludzie woleli kupić produkty od sztucznej inteligencji.

Skoro jesteśmy przy nieruchomościach, to mamy kwestię wyszukiwania tej odpowiedniej – teraz na portalu podajemy cenę, lokalizację, uzupełniamy inne kategorie i na tej podstawie otrzymujemy listę nieruchomości. Ale możemy iść o krok dalej – AI, po automatycznym przeanalizowaniu naszych wszelkich preferencji, może pokazać wyniki, które są bardzo zbliżone do tego, czego pragniemy. Sztuczna inteligencja dobrze te preferencje odczytuje. Dzisiaj 300 lajków na Facebooku wystarczy, żeby lepiej nas poznała niż nasz partner życiowy. A jakby pójść jeszcze dalej? Że ona na głębszym poziomie przeanalizuje różne nasze preferencje na bazie np. wyników ankiet czy różnych śladów cyfrowych pozostawionym w internecie i podsunie takie nieruchomości, które odpowiadają naszym – czasem ukrytym – potrzebom?

fot. petrospsyllos.com

Biorąc to wszystko pod uwagę, jak Pan widzi przyszłość pośrednictwa?

Patrząc, w jakim kierunku rozwija się sztuczna inteligencja, na to, że systemy dialogowe są coraz bardziej ludzkie, że będą mogły lepiej manipulować i wpływać na decyzje, sugerując coś użytkownikom, oczywiście w pozytywnym znaczeniu, to część zadań pewnie zostanie kiedyś zautomatyzowana.

Algorytmy znają nas lepiej niż my sami siebie znamy. Mogą więc sugerować i odpowiadać na wszystkie nasze wątpliwości zgodnie z najlepszą wiedzą, która będzie wiedzą bardziej obiektywną i nieskażoną przez ludzkie przywary typu zapominanie czy wolne tempo przetwarzania informacji. Sztuczna inteligencja będzie w stanie podpowiedzieć najlepszą propozycję, która jest możliwa, bazując na naszych preferencjach i biorąc pod uwagę aktualną sytuację na rynku. Sztuczna inteligencja może analizować w czasie rzeczywistym miliony zmiennych. Nic jednak nie zastąpi kontaktu z prawdziwym człowiekiem, bo to jest jednak największy narkotyk, jeżeli chodzi o nas. Pojawia się więc pytanie, czy klient będzie wolał rozmawiać z człowiekiem, który może nie będzie taki idealny jak bot? Czy może jednak będzie wolał profesjonalizm bota i ten element ludzki nie będzie miał dla niego żadnego znaczenia? A może AI będzie podsuwała po prostu treści do rozmowy człowiekowi, jak Wuch u Lema? Człowiek zostanie wtedy zredukowany do roli „układu wykonawczego”.

Na co narażamy się więc, umniejszając znaczenie sztucznej inteligencji i nie rozwijając swoich umiejętności z jej zakresie?

Przede wszystkim na wykluczenie cyfrowe. Tak jak dzisiaj wykluczone są osoby starsze, które nie korzystają z internetu. Jeżeli chodzi o rynek pracy, osoby, które nie będą potrafiły porozumiewać się ze sztuczną inteligencją, zostaną w tyle, a wygrywały będą osoby, które będą miały pożądane kompetencje. Widać już, że AI wkracza nie tylko w IT, wchodzi dzisiaj do wszystkich branż: do nieruchomości, medycyny, do fintechu itd. To będzie narzędzie, z którego po prostu trzeba będzie korzystać, dlatego już dzisiaj warto rozumieć, czym naprawdę jest sztuczna inteligencja. Jest to bardzo ważne, dlatego nauczam w tej dziedzinie, prowadząc wykłady poświęcone AI i kierunkom, w jakim ona zmierza. Tylko rozumiejąc te technologie możemy sprawić, że będą nam służyły. Bo AI jest dobrym sługą, ale złym panem.

Bardzo dziękuję za rozmowę.

Dominika Studniak

Dominika Studniak - Od 2010 r. związana z portalem Nieruchomosci-online.pl. Realizuje projekty związane z administrowaniem portalami internetowymi i ich optymalizacją, copywritingiem i content marketingiem. Redaktor naczelna bloga Nieruchomosci-online.pl. Redaktor prowadząca e-magazynu „ESTATE”.

Magazyn ESTATE

Skupiamy uwagę na nieruchomościach

Bezpłatny e-magazyn w 100% dla pośredników

Wiedza i inspiracje do wykorzystania od ręki dostarczane przez doświadczonych uczestników rynku nieruchomości z zakresu marketingu nieruchomości, sprzedaży i negocjacji, prawa i finansów oraz rozwoju osobistego.

Pobierz za darmo najnowszy numer

Dowiedz się więcej o magazynie ESTATE

Zobacz także