GitHub Copilot: sztuczna inteligencja a prawa autorskie

Strona głównaGitHub Copilot: sztuczna inteligencja a prawa autorskie
11.07.2021 07:30
GitHub Copilot: sztuczna inteligencja a prawa autorskie
GitHub Copilot: sztuczna inteligencja a prawa autorskie
Źródło zdjęć: © Pixabay | chenspec

GitHub niedawno opublikował narzędzie Copilot: wspomagany sztuczną inteligencją kreator kodu źródłowego. Na podstawie napisanego już kodu oraz modelu GPT-3, narzędzie sugeruje "ciąg dalszy". Okazało się, że ten eksperymentalny projekt stał się wielkim newsem w pewnych kręgach IT. Mnóstwo razy padło pytanie "czy Copilot zastąpi programistów?". Pytanie brzmi atrakcyjnie, ale jest chybione.

bEqSbRRx

Jasnym powinno być, że zawód programisty jest całkowicie niezagrożony przez Copilota w jego obecnym kształcie. Wśród tuzinów wytłumaczeń, najprostszym z nich jest entropia: model nie jest na tyle "mądry" by zwiększać poziom swojej kreatywności. Model GPT-3 jest uczony na podstawie już powstałego kodu. Jeżeli zacznie się go "karmić" kodem stworzonym przez siebie, stanie się metastabilny. Innymi słowy, będzie tworzyć unikatowe dzieła, ale nie będzie się rozwijać.

Uczenie maszynowe

O wiele ciekawsze pytanie na temat zagrożeń związanych z GPT-3 postawiła Nora Tindall. Postanowiła się dowiedzieć, jaki był wejściowy zestaw danych do stworzenia modelu na którym operuje GitHub Copilot. Rozwój GPT-3 jest bowiem niejawny. Wyłączne prawa do jego użycia ma obecnie Microsoft, właściciel zarówno GitHuba, jak i jedynej licencji na kod źródłowy narzędzia. Niech obecność na GitHubie nikogo nie zmyli: GPT-3 nie jest oprogramowaniem open source.

Tindall otrzymała odpowiedź od GitHuba (wskazującą, że pierwsza linia wsparcia albo nie rozumiała początkowych dociekań, albo celowo utrudniała dostęp do stanu faktycznego). Otóż Microsoft do trenowania GPT-3 dla Copilota użył… całego dostępnego publicznie kodu hostowanego na GitHubie. Niezależnie od jego licencji. A przecież to, że kod jest publiczny nie znaczy jeszcze, że jego użycie nie podlega żadnym ograniczeniom. Co więcej, GitHub hostuje sporo kodu, który znajduje się na nim nielegalnie, jak źródła systemu Windows NT 4.0.

bEqSbRRz

Maszyna vs człowiek

Stosowanym tutaj, pośrednio, wytłumaczeniem takiej decyzji jest powołanie się na koncepcję uczenia. Wszak człowiek, czytając kod źródłowy (w tym ten o ograniczonym prawie do wykorzystania), uczy się. Nie znaczy to, że wykorzysta poznany kod bezpośrednio. Inspiracja owym kodem nie musi być nawet szczególnie silna. Jest to problem dobrze znany zawodowym programistom. Kod z poprzedniego miejsca pracy, pokryty NDA, nie jest używany w nowych projektach, ale doświadczenie wykształcone wskutek jego tworzenia, niewątpliwie na wpływ na kształt nowych tworów. Skoro więc w taki sposób uczy się człowiek, dlaczego nie można na to pozwolić maszynie?

Copilot być może nie nadaje się jeszcze do pair programmingu, ale może być pomocny z innych powodów
Źródło zdjęć: © dobreprogramy | Kamil J. Dudek
Copilot być może nie nadaje się jeszcze do pair programmingu, ale może być pomocny z innych powodów

Takie wykorzystanie największej publicznej bazy kodu źródłowego jest jednak, w opinii Nory Tindall, rażącym naruszeniem praw autorskich. Maszyna nie "uczy się" w taki sam sposób jak człowiek, a GPT-3 nie "rozumie" kodu, który przetwarza. Zaciągnięcie całej bazy GitHuba jest więc nieuprawnionym wykorzystaniem kodu w celu oferowania komercyjnej usługi przez prywatną firmę.

Prawa autorskie

Implikacje tego stanu rzeczy są poważne. Przede wszystkim, pokazują że prawa autorskie dotyczą "zwykłych śmiertelników", ale nie wielkich firm (chyba, że chodzi o konkurentów). Działający w pojedynkę użytkownik zmierzy się z armią prawników jeżeli wyjdzie na jaw, że w nieuprawniony sposób wykorzystał kod źródłowy należący do korporacji. Ale gdy to korporacje użyją literalnie całego istniejącego w internecie kodu, są bezkarne. Bowiem nawet, gdy w przyszłości zostanie uznane, drogą sądową, że działanie to było bezprawne, Copilot już powstał i działał.

"Open" to pojęcie względne...
"Open" to pojęcie względne...

Istnieje też zagrożenie o wiele bardziej hipotetyczne, dotyczy bowiem potencjalnej przyszłości (technologia czyniąca je możliwym jeszcze nie istnieje). Operatorzy sztucznej inteligencji będą mieli nieskończoną przewagę na ludzkimi programistami, a miara przewagi między samymi operatorami będzie ściśle zależna od ich rozmiaru. Wielcy staną się jeszcze więksi, mali znikną z branży.

bEqSbRRF

Co gorsza, jest to wydarzenie bez precedensu. Nie mamy opracowanych obyczajów ani ram etycznych, kodyfikujących niniejsze zagadnienie. Licencje hostowanego oprogramowania są niedostosowane do ochrony przed wykorzystaniem w taki sposób. Tindall zwróciła się o pomoc do fundacji FSF i EFF.

Programy

Aktualizacje
Aktualizacje
Nowości
bEqSbRSv