Rynek GAI (Generative AI), wyszkolonej na dużych zbiorach danych sztucznej inteligencji do 2030 roku będzie rósł w tempie 34 proc. rok do roku, osiągając wartość 110 mld USD. Jakie zagrożenia wiążą się z nieetycznym wykorzystaniem informacji?
Zawrotne tempo i wartość rynku GAI prognozowana przez Acumen Research and Consulting skłania do refleksji nad ewentualnym nieodpowiednim wykorzystaniem technologii tworzącej treści audiowizualne, graficzne i tekstowe, uświadamiając biznes, rządy i instytucje międzynarodowe. Dlaczego stworzenie ram regulujących etyczne wykorzystanie danych powinno być priorytetem?
Dane przetwarzane etycznie
Etyka danych jest szczególnie istotna, jeśli weźmie się pod uwagę ilość informacji przetwarzanych przez algorytmy. Wg McKinsey & Company model GPT-3 został wytrenowany na około 45 terabajtach danych tekstowych.
Warto mieć świadomość, skąd pochodzą treści, na podstawie których działają algorytmy. Firmy gromadzą je ze zróżnicowanych źródeł, systemów i dostawców. W tym celu tworzone są tzw. jeziora danych z terabajtami danych (ang. data lakes), aby przechowywać informacje o klientach i ich zachowaniach. Potrzebne jest więc etyczne podejście do tworzenia algorytmów, tak aby dane te mogły zostać użyte tylko w sposób niosący korzyści dla społeczeństwa.
– Wielka moc wymaga wielkiej odpowiedzialności. Najważniejsze jest uświadomienie sobie, że wszyscy tworzymy i konsumujemy dane. Każdy z nas musi być odpowiedzialny za ich etyczne wykorzystanie. Pierwszym krokiem jest zwiększenie ogólnej świadomości na temat zagadnień związanych z etyką danych wewnątrz organizacji. Następnie, poprzez współpracę biznesu z rządami oraz organizacjami powinniśmy doprowadzić do opracowania systemowych rozwiązań i regulacji, które zagwarantują, że algorytmy, jak każde inne narzędzie będą wykorzystywane w odpowiedzialny sposób, a efekty ich działania będą w pełni wytłumaczalne – powiedział Piotr Rozenbajgier (SAS).
Jasne zasady i regulacje użycia AI
Zdaniem ekspertów SAS polityka i regulacje związane z AI powinny skupiać się na danych, które leżą u podstaw algorytmów. Kluczowe jest, aby firmy budujące innowacje oparte na sztucznej inteligencji zadbały o ich etyczne gromadzenie oraz wykorzystanie. Organizacje powinny kierować się jasnymi zasadami w tym obszarze.
Konieczne jest zróżnicowanie przepisów. Branże uregulowane, jak usługi finansowe czy opieka zdrowotna mają inne priorytety w zakresie przetwarzania i ochrony danych.
Teoria wykorzystania danych AI łatwiejsza niż praktyka
Szczególnie w przypadku korporacji i kiedy firmy mają więcej problemów związanych z danymi, a filozofia zastosowania informacji nie jest jednolita w całej organizacji.
– Nie powinniśmy traktować na tym samym poziomie danych pochodzących z urządzeń IoT z domu, co danych medycznych czy finansowych. Rzeczywistość jest taka, że nie wiemy, jak te zbiory zostaną wykorzystane w przyszłości. Wystarczy wyobrazić sobie, że wykorzystujemy dane pochodzące z inteligentnych piekarników i lodówek do badania nawyków żywieniowych pod kątem ubezpieczeń na życie. Proste dane szybko stają się bardzo wrażliwe. Dlatego tak ważne jest, aby postępować z nimi w sposób etyczny – kontynuuje Piotr Rozenbajgier.
Stworzenie etycznych regulacji wykorzystanie danych AI i GAI wymaga wspólnego wysiłku twórców i użytkowników, a ponadto naukowców, organizacji społecznych i decydentów. Z humanocentryczną i bezpieczną propozycją etycznego wykorzystywania danych wychodzi między nimi już np. firma SAS. Daje to przykład firmom, na których spoczywa coraz większa, niekiedy wciąż nieuświadomiona odpowiedzialność.
Źródło: SAS