Rozwój AI zależy od sprzętu. "Prawo Moore'a powoli się kończy"

Krzysztof Kudryński podczas Infoshare 2023
Krzysztof Kudryński podczas Infoshare 2023
Źródło zdjęć: © Infoshare
Oskar Ziomek

07.06.2023 09:39

Zalogowani mogą więcej

Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika

Rozwój sztucznej inteligencji jest ściśle powiązany z możliwościami sprzętu. Krzysztof Kudryński, Senior Deep Learning Software Engineer w firmie Nvidia, z którym mieliśmy okazję porozmawiać podczas konferencji Infoshare 2023 twierdzi, że istotne są też nowe rozwiązania programistyczne.

Sztuczna inteligencja bez wątpienia będzie powszechnie stosowana w oprogramowaniu i zostanie wdrożona wszędzie, gdzie podejmowane są decyzje wymagające intuicji i analizowania wielu danych wejściowych, co człowiekowi może sprawiać trudność i zajmować dużo czasu. Można jednak zastanawiać się, dlaczego "boom" na wykorzystanie AI jest widoczny dopiero teraz - przecież idea sztucznej inteligencji znana jest od wielu lat i stosowana na różną skalę w oprogramowaniu.

W dużej mierze zależy to od wydajności sprzętu. "Hype nie pojawia się wtedy, kiedy pojawia się technologia, ale wtedy, gdy efekty zastosowania danej technologii można wdrożyć do powszechnego użytku" - tłumaczy Krzysztof Kudryński. "Uważam, że głównym czynnikiem, jeśli nie jedynym, jest tutaj sprzęt. Dlaczego? Dla przykładu GPT-3 został za pierwszym razem wytrenowany przez OpenAI w czasie kilku tygodni. Gdybyśmy chcieli zrobić to samo na laptopie, z którego teraz rozmawiam, trwałoby to pewnie z 50 lat, a taki laptop kiedyś uznany byłby za cud techniki" - dodaje ekspert.

Doczekaliśmy więc momentu, w którym wydajność sprzętu pozwala nam w miarę na bieżąco realizować pomysły wymagające wytrenowania modeli dla AI, ale jednocześnie pojawiają się nowe wyzwania i konieczność sięgania po rozwiązania programistyczne. "Prawo Moore'a powoli się kończy" - upraszcza sprawę Kudryński. "Dochodzimy do wielkości atomu i ograniczeń krzemu, których powoli nie da się już przebić. Mamy za to coraz większe możliwości liczenia równoległego i skalowania, rozwój jest niesamowity".

Dalsza część artykułu pod materiałem wideo

Weryfikacja wytworów AI

Szczęśliwie nie trzeba się obawiać, że tak dynamiczny rozwój sztucznej inteligencji doprowadzi do sytuacji, w której użytkownik nie będzie wiedział, czy ma do czynienia ze zdjęciem, filmem lub tekstem wytworzonym przez człowieka, bądź komputer. Oczywiście istnieje takie zagrożenie, ale warto wiedzieć, że równolegle do AI potrafiącej "zastąpić człowieka" szkolone są systemy, które weryfikują, na ile tworzone materiały są realistyczne i nie do odróżnienia od wytworów ludzkich.

"Już teraz mamy metody algorytmiczne do weryfikacji, czy coś zostało wytworzone przez AI, czy człowieka, głównie w dziedzinie obrazu, dźwięku i wideo" - uspokaja Krzysztof Kudryński. "Jednak sama zasada tworzenia sieci, które mają generować takie treści jest oparta na metodzie generacji-dyskryminacji. Od razu szkolą się dwie sieci równolegle: jedna po to aby generować, a druga by weryfikować, czy materiał jest wiarygodny, czy nie. Im lepiej jedna nauczy się generować, tym lepiej druga będzie rozpoznawać autentyczność i odwrotnie" - tłumaczy ekspert Nvidii.

W ten sposób działanie AI z czasem może się stać wręcz perfekcyjne, co doprowadzi do nowych wyzwań w zakresie weryfikowania faktów, ale tutaj pojawia się zaskakująco proste rozwiązanie - wyeliminowanie zwłaszcza social mediów (gdzie materiały generowane przez AI są szczególnie popularne), jako źródła wiedzy. Ludzie będą musieli nauczyć się sprawdzać dane w źródłach, w których sztuczna inteligencja nie będzie mogła wpłynąć na treść materiałów, do czego nasz rozmówca zachęca już teraz.

Oskar Ziomek, redaktor prowadzący dobreprogramy.pl

Programy

Zobacz więcej
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (21)