Jak twierdzi Maciej Bisch, wykładowca studiów podyplomowych Prawo w biznesie nowych technologii, manager w zespole IP, IT, Digital kancelarii EY Law, ChatGPT w ciągu dwóch miesięcy uwypuklił wpływ sztucznej inteligencji na system edukacji czy też sferę prawa autorskiego poprzez rozpowszechnienie zjawiska tzw. plagiatu AI, czyli generowaniu treści za pomocą sztucznej inteligencji i przypisywaniu autorstwa człowiekowi. W tym celu jego twórcy zapowiedzieli wdrożenie mechanizmów, za pomocą których będzie możliwe wykrycie czy dany tekst został wygenerowany za pomocą tego narzędzia, jednocześnie jednakże wskazując, że prawdopodobnie będą one możliwe do ominięcia.
„Z tego doświadczenia moim zdaniem powinniśmy wyciągnąć kilka wniosków. Po pierwsze - powinniśmy mieć świadomość, że treści generowane przez sztuczną inteligencję obecnie są na tak wysokim poziomie, że za pomocą własnych obserwacji nie jesteśmy w stanie stwierdzić czy dany tekst, obraz lub materiał wideo jest dziełem człowieka czy też został wygenerowany automatycznie. Po drugie - poprzez edukację powinniśmy zwiększać poziom wiedzy na temat tego, czym jest sztuczna inteligencja oraz jakie są korzyści i zagrożenia związane z jej wykorzystaniem. Wreszcie po trzecie - powinniśmy się zastanowić nad rolą sztucznej inteligencji w naszym życiu oraz wyznaczyć zasady i granice wykorzystania tej technologii w poszczególnych obszarach, np. w edukacji. W opinii eksperta, ChatGPT przyniesie nam ogromne korzyści, jeżeli tylko będziemy z nich korzystać właściwie.
„Przykład ten pokazuje jednak dobitnie, że w wielu aspektach, w tym w sferze regulacyjnej, nie jesteśmy jeszcze odpowiednio przygotowani na szeroko zakrojone wdrożenie systemów sztucznej inteligencji. Dlatego też konieczne jest stworzenie ram prawnych dla opracowywania i wykorzystania tej technologii, jak również przeprowadzenie ocen ryzyka i konsultacji sektorowych, aby jak najlepiej wykorzystać jej ogromny potencjał” – dodaje ekspert.
Zdaniem Justyny Wilczyńskiej-Baraniak, kierowniczki studiów podyplomowych Prawo w biznesie nowych technologii oraz Partnerki EY Law, znowu mamy sytuację, w której technologia wyprzedza regulacje prawne. „W Unii Europejskiej od 2021 roku trwają prace nad uregulowaniem kwestii dotyczących sztucznej inteligencji. Celem projektu rozporządzenia jest ustanowienie jednolitych zasad klasyfikowania systemów sztucznej inteligencji według poziomu ryzyka. Wydaje się więc, że wymarzonym rozwiązaniem jest szybkie sfinalizowanie prac nad projektem Rozporządzenia w sprawie AI, skoro wysuwa on na pierwszy plan człowieka i ma na celu zapewnienie kontroli nad systemem AI” – komentuje Justyna Wilczyńska-Baraniak.
Mimo wszystko w ocenie ekspertki oczekiwanie, że projekt rozporządzenia w sprawie AI będzie przysłowiowym „antidotum” na obecne ryzyka związane ze stosowaniem sztucznej inteligencji, jakie rozważane są w związku z funkcjonowaniem ChatGPT, jest nad wyraz optymistyczne.
„Stosowanie rozporządzenia w sprawie AI po jego wejściu w życie w obecnym brzmieniu nie będzie dotyczyć użytkowników będących osobami fizycznymi korzystającymi z systemów AI w ramach czysto osobistej działalności nieprofesjonalnej, z pewnymi włączeniami. W innych zaś przypadkach stosowanie Rozporządzenia o AI może być problematyczne w zakresie klasyfikacji systemów do grup ryzyka (niedopuszczalny, wysoki, ograniczony, minimalny). Niezależnie od próby uregulowania technologii sztucznej inteligencji, ważna jest dyskusja nad kierunkiem rozwoju tej technologii, aby już na etapie projektowania rozwiązania opartego o AI, były uwzględniane kwestie odpowiedzialności i etyki. Niezależnie od konkretnego rozwiązania, platformy do budowy i utrzymywania systemów ze względu na efektywność, bezpieczeństwo powinno być standardem i nieodłącznym elementem odpowiedzialnego podejścia do wykorzystania SI” – podsumowuje ekspertka.