ChatGPT nie jest idealny. SI może udawać, że rozumuje

ChatGPT nie jest idealny. SI może udawać, że rozumuje

Twórca Gmaila twierdzi, że ChatGPT może "zniszczyć" Google
Twórca Gmaila twierdzi, że ChatGPT może "zniszczyć" Google
Źródło zdjęć: © Getty Images | SOPA Images
23.02.2023 11:42, aktualizacja: 24.02.2023 19:51

ChatGPT zaprezentował światu ogromne możliwości sztucznej inteligencji. Model ten potrafi osiągnąć wiele i ułatwić wiele codziennych spraw. Nie brakuje w nim jednak słabych punktów, a mimo to niektórzy traktują go jak wyrocznię.

Sztuczna inteligencja to w ostatnim czasie jeden z ważniejszych tematów w branży technologicznej. Tempo, w jakim popularność zdobył Chat GPT, może być zaskakujące. Model ten był wykorzystywany do realizacji wielu różnych zadań i spisywał się nad wyraz skutecznie. Potrafił zdać egzamin prawniczy czy lekarski, a także znacząco ułatwić życie uczniom, za których odrabiał zadania domowe. Patrząc na to, z jaką łatwością realizuje zadania i z jaką pewnością odpowiada na zadawane mu pytania, można by pomyśleć, że może stanowić on wyrocznię. W rzeczywistości sztucznej inteligencji daleko jeszcze do ideału.

Stworzony przez OpenAI ChatGPT, podobnie jak wiele innych modeli działających w oparciu o sztuczną inteligencję, nie jest nieomylny. Choć w swoich wypowiedziach rzadko wątpi w podawane przez siebie informacje, w rzeczywistości potrafi mylić się bardzo często, zarówno podczas realizacji prostych, jak i nieco trudniejszych zadań.

Dalsza część artykułu pod materiałem wideo

Jedną z możliwości wykorzystania ChatGPT może być na przykład programowanie. Z racji tego, że model ten doskonale rozumie wprowadzane polecenia, można go wykorzystać do pisania programów bez znajomości języka programowania. Nie zawsze będzie to jednak rozwiązanie optymalne.

- Trzeba zauważyć, że w części przypadków szybciej i wygodniej jest napisać precyzyjną linijkę kodu niż tłumaczyć językiem naturalnym, jaki proces powinien nastąpić. W przeszłości pojawiały się koncepcje - takie jak UML - by programy "rysować" poprzez tworzenie odpowiedniego diagramu. Takie podejście nie sprawdziło się jednak na większą skalę - komentuje dr Tomasz Odrzygóźdź, postdoc w IDEAS NCBR, centrum badawczo-rozwojowym w obszarze sztucznej inteligencji, prowadzący badania dotyczące przeprowadzania rozumowań przez algorytmy AI. 

Zdaniem Tomasza Odrzygóździa wiele zależy od tego, co chcemy programować. Stworzenie prostej strony internetowej przy użyciu rozwiązania "no-code" może być dobrym rozwiązaniem. Trudno jednak wyobrazić sobie, by sterowanie dronem realizować językiem naturalnym zamiast kodu. Nie wiadomo też, czy jakość i precyzja tworzonego przez Chat GPT kodu będzie na tyle duża, by zagroził wykwalifikowanym programistom.

Trudno mówić też obecnie, że sztuczna inteligencja postawi na głowie zasady panujące obecnie w biznesie. Dr Odrzygóźdź zwraca uwagę na to, że popularność aplikacji ChatGPT, a także jej duże możliwości sprawiają, że ludzie zaczynają zastanawiać się nad tym czy jesteśmy blisko stworzenia ogólnej sztucznej inteligencji.

- Nie ukrywam, że opinie na temat przybliżania nas do stworzenia sztucznej inteligencji w środowisku naukowym budzą emocje i opinie na ten temat są podzielone, nie ma też jednoznacznej odpowiedzi. Moim zdaniem istnieje możliwość, że modele tego typu nie do końca dają sobie radę z rozumowaniem. Nawet jeśli na pewnym etapie możemy mieć inne wrażenie, należy wziąć pod uwagę istnienie możliwości, że przy tak dużym nasyceniu danymi do trenowania modelu, on po prostu "udaje", że umie rozumować - komentuje naukowiec.

Kolejną z wad modeli opartych o sztuczną inteligencję jest ich stronniczość. Jak zauważa ekspert, nie zależy ona w głównej mierze od tego, kto odpowiada za tworzenie oprogramowania, ale od tego, jakie dane są wykorzystywane podczas treningu. W trakcie projektowania można próbować balansować jakość danych, co powinno przełożyć się na zmniejszenie stronniczości modelu, choć jest to bardzo trudne.

- Rozwiązaniem tego wyzwania może być większa inkluzywność w zespołach pracujących nad rozwojem sztucznej inteligencji oraz udostępnianie nowych narzędzi z początku tylko w wąskim zakresie, tak by relatywnie niewielka, ale dostatecznie zróżnicowana populacja mogła je przetestować - komentuje ekspert IDEAS NCBR.

Karol Kołtowski, dziennikarz dobreprogramy.pl

Programy

Zobacz więcej
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (15)