Jesteśmy pierwszym pokoleniem w historii ludzkości, które tworzy maszyny AI, zdolne do podejmowania decyzji, które wcześniej mogły być podejmowane tylko przez ludzi. Bez względu na to, jak dobre może nam się wydawać, że coś jest dzisiaj, wszyscy będziemy musieli stawać się coraz lepsi.
Obecnie w firmie Microsoft prawie 350 osób pracuje nad odpowiedzialną sztuczną inteligencją, pomagającwdrażać najlepsze praktyki w zakresie tworzenia bezpiecznych i przejrzystych systemów sztucznej inteligencji. Poniższe sugestie to ich wnioski.
Jak AI może poprawić nasze życie na co dzień
Postęp dał możliwość i pewność, że widzimy coraz szersze możliwości poprawy życia ludzi dzięki sztucznej inteligencji. Widzieliśmy, jak pomaga ona ratować wzrok, robi postępy w opracowywaniu nowych leków na raka, generuje nowe spostrzeżenia na temat białek i zapewnia prognozy chroniące ludzi przed niebezpieczną pogodą. Inne innowacje odpierają cyberataki i pomagają chronić podstawowe prawa człowieka, nawet w krajach dotkniętych obcą inwazją lub wojną domową.
Działając jako drugi pilot w życiu ludzi, moc modeli takich jak GPT-4 zmienia wyszukiwanie w potężne narzędzie badań i poprawiania produktywności. A dla każdego rodzica, który miał trudności z przypomnieniem sobie, jak pomóc swojemu dziecku w zadaniu domowym z algebry, pomoc oparta na sztucznej inteligencji jest jak zatrudnienie korepetytora.
Lekcja odpowiedzialności
Jedną z najważniejszych lekcji o AI jest ta płynąca przede wszystkim z mediów społecznościowych. Nieco ponad dekadę temu technolodzy i komentatorzy polityczni zachwycali się rolą mediów społecznościowych w szerzeniu demokracji podczas Arabskiej Wiosny. Dziś jesteśmy 10 lat starsi, a social media wpadają w ręce coraz młodszych. Musimy zdać sobie sprawę, że granice potrzebne sztucznej inteligencji wymagają szeroko podzielanego poczucia odpowiedzialności i nie należy ich pozostawiać samym firmom technologicznym.
Musimy zawsze dbać o to, aby sztuczna inteligencja pozostawała pod kontrolą człowieka. To musi być priorytetem zarówno dla firm technologicznych, jak i rządów.
W niektórych kręgach rozważne osoby coraz częściej pytają, czy możemy w zadowalający sposób kontrolować sztuczną inteligencję, gdy staje się ona potężniejsza. Czasami pojawiają się obawy dotyczące kontroli AI nad infrastrukturą krytyczną, taką jak sieć elektryczna, system wodny i przepływy ruchu w mieście. Ogromne znaczenie ma tu rola rządu, który zapewniłby regularne kontrole takich systemów wysokiego ryzyka. Do tego systemy AI kontrolujące działanie strategicznych infrastruktur byłyby wdrażane tylko w licencjonowanych centrach AI, które zapewniałyby ich ostateczną kontrolę przez człowieka.
AI wymaga także struktur prawnych. Należy zastosować istniejące zabezpieczenia prawne przy wykorzystywaniu sztucznej inteligencji w aplikacjach. Musimy stosować i egzekwować istniejące przepisy i regulacje, pomagając agencjom i sądom w rozwijaniu wiedzy specjalistycznej potrzebnej do dostosowania się do nowych scenariuszy AI.
Z czasem pojawi się coraz większa potrzeba opracowania nowych przepisów i regulacji dotyczących wysoce wydajnych modeli AI – najlepiej przez specjalnie utworzone organy rządowe. Wpłynie to na świat technologii na dwa sposoby: będzie on wymagał nowych przepisów i procedury licencjonowania modeli, a ponadto będzie nakładał nowe obowiązki na ich producentów.
Poznaj swojego klienta, chmurę i treści
Rady Microsoft opierają się o zasady opracowane w ostatnich dziesięcioleciach w bankowości w celu ochrony przed praniem pieniędzy oraz przestępczym lub terrorystycznym wykorzystaniem usług finansowych. Zasada „Poznaj swojego klienta” wymaga, aby instytucje finansowe weryfikowały tożsamość klientów, ustalały profile ryzyka i monitorowały transakcje w celu wykrywania podejrzanych działań. Sensowne byłoby przyjęcie tej zasady i zastosowanie podejścia KY3C, które stwarza w kontekście sztucznej inteligencji pewne obowiązki znajomości własnej chmury, swoich klientów i treści.
Ponadto korporacja postuluje – i nie jest w tym odosobniona – że opinia publiczna powinna mieć możliwość „poznania treści” tworzonych przez sztuczną inteligencję za pomocą etykiety lub innego znaku informującego ludzi, kiedy coś w rodzaju pliku wideo lub audio zostało wyprodukowane przez model sztucznej inteligencji, a nie przez człowieka. Ten obowiązek oznaczania powinien również chronić społeczeństwo przed zmianą oryginalnej treści i tworzeniem tzw. „deep fakes”.
Innym kluczowym, ogólnospołecznym aspektem związanym z coraz szerszym wykorzystaniem AI jest zwiększenie przejrzystości i poszerzenie dostępu do zasobów sztucznej inteligencji. Chociaż istnieją pewne istotne napięcia między przejrzystością a potrzebą bezpieczeństwa, istnieje wiele możliwości uczynienia systemów sztucznej inteligencji bardziej przejrzystymi w odpowiedzialny sposób.
Nowe partnerstwa publiczno-prywatne
Jedna lekcja z ostatnich lat dotyczy tego, co demokratyczne społeczeństwa mogą osiągnąć, gdy ujarzmią potęgę technologii i połączą sektor publiczny i prywatny. To lekcja, na której musimy się oprzeć, aby zająć się wpływem sztucznej inteligencji na społeczeństwo. Patrząc na to, czego potrafi dokonać front cyfrowy i ostatnie półtora roku wojny na Ukrainie widać, że kiedy sektor publiczny i prywatny współpracują ze sobą, gdy spotykają się podobnie myślący sojusznicy i kiedy rozwijamy technologię używając jej jako tarczy, jest ona potężniejsza niż jakikolwiek miecz na tej planecie.
W tym kontekście niezmiernie ważnym jest, by wykorzystać sztuczną inteligencję do ochrony demokracji i praw podstawowych, zapewnić szeroki dostęp do funckji AI, które będą społecznie włączające, oraz by wykorzystać moc sztucznej inteligencji do zaspokojenia potrzeb planety w zakresie zrównoważonego rozwoju. Być może bardziej niż cokolwiek innego fala nowej technologii sztucznej inteligencji daje możliwość myślenia na dużą skalę i odważnego działania.
Wszyscy jesteśmy na wspólnej drodze do stworzenia odpowiedzialnej przyszłości sztucznej inteligencji i wszyscy możemy się od siebie uczyć. W miarę jak zmiany technologiczne przyspieszają, prace nad odpowiedzialnym zarządzaniem sztuczną inteligencją muszą za nimi nadążać.
Źródło: Microsoft