ZAUFANIE PODSTAWĄ WSZYSTKIEGO
W ciągu ostatniego stulecia automatyzacja spowodowała rozwój wielu gałęzi przemysłu. Od niedawna ludzie muszą pracować z jednostkami, które coraz częściej wykorzystują technologię sztucznej inteligencji (Artificial Intelligence – AI).
W zakładach produkcyjnych zaprogramowane ramiona robotów i ludzie pracują w bliskiej odległości od siebie. W transporcie wykorzystuje się coraz więcej zautomatyzowanych systemów. Pojazdy autonomiczne wykorzystują zaawansowane systemy wspomagania kierowcy, natomiast współczesny autopilot i systemy bezpieczeństwa wykorzystują systemy wspomagania manewrowania samolotem. Obydwa opierają się na algorytmach przetwarzania danych z czujników analizujących dane pozyskane z wielu czujników umieszczonych wokół pojazdów i samolotów w celu zapewnienia bezpiecznych i wydajnych podróży. W opiece zdrowotnej specjaliści wykorzystują analizy dużych zbiorów danych pozyskiwanych przez algorytmy uczenia maszynowego w celu lepszej diagnostyki chorób.
Bariery wdrażania
Największą barierą we wdrożeniu technologii sztucznej inteligencji są obawy o wiarygodność systemu. Projekty prowadzone przez SC 42/WG 3 w tym obszarze nie tylko próbują zidentyfikować i stworzyć ramy dla pojawiających się problemów, lecz także pomagają zmniejszać obawy zarówno dzięki technicznemu podejściu, jak i powiązaniu z wymaganiami pozatechnicznymi, takimi jak wyzwania etyczne i społeczne. To rewolucyjne podejście – które SC 42 przyjmuje, analizując pełny ekosystem sztucznej inteligencji – umożliwi przyjęcie technologii AI na szeroką skalę, a to jako wszechobecna technologia umożliwi cyfrową transformację – mówi Wael Diab, przewodzący pracom normalizacyjnym w zakresie technologii AI w ramach podkomitetu 42 wspólnego komitetu IEC i ISO (ISO/IEC JTC 1) dla technologii informacyjnych.
W tych i wielu innych sytuacjach ludzie muszą zaufać maszynom, dlatego tak istotne jest, by nic nie poszło źle. W miarę rozwoju nowych produktów i usług oraz wprowadzania technologii AI, jej powszechne zastosowanie będzie sukcesem tylko wtedy, jeśli ludzie poczują, że mogą tej technologii zaufać. Oznacza to, że jeśli wystąpi problem, będzie można zrozumieć, co się stało, jak się stało i jak go uniknąć w przyszłości.
Dr David Filip, Przewodniczący SC 42/WG 3 mówi o wiarygodności technologii AI.
Czym jest wiarygodność i dlaczego jest tak istotna?
W naszej pracy normalizacyjnej zidentyfikowaliśmy pewne cechy wiarygodności, takie jak odpowiedzialność, stronniczość, sterowalność, wyjaśnialność, poufność, solidność/wytrzymałość, odporność oraz bezpieczeństwo. Jednak dla mnie, zanim te wszystkie aspekty zostaną wzięte pod uwagę, zawsze wraca się do przejrzystości albo przejrzystej weryfikowalności zachowań i wyników systemów AI. Czy wynik działań systemu AI można zweryfikować w sposób przejrzysty, czy jest to tzw. black box, innymi słowy, czy jest wiarygodny, czy nieprzejrzysty? Czy jest ktoś, kto może to ocenić pod kątem słabych punktów lub niezamierzonych konsekwencji? Aby system był godny zaufania, musimy być w stanie zrozumieć wewnętrzne działanie algorytmu.
Wiedząc, że uczenie maszynowe zostało już funkcjonalnie zdefiniowane i opiera się na dużych ilościach danych w zbiorach szkoleniowych, maszyny będą tak dobre jak dane im dostarczone. Aby zatem uzyskać wiarygodność, ludzie nadal będą musieli być częścią procesu, będą musieli sprawdzać i kontrolować podstawowe algorytmy technologii AI oraz to, czy powiązane dane szkoleniowe nie wprowadzają nieuczciwych lub niepożądanych uprzedzeń.
Jak normy mogą pomóc w osiągnięciu transparentności?
Normy stoją za wszystkimi systemami, które sprawiają, że nasza cywilizacja działa w sposób, jaki znamy; istnieje wiele przykładów, takich jak koleje z systemem sprzed ponad 100 lat lub HTML 5, który określa właściwości i zachowania treści stron internetowych, bez których użytkownik nie mógłby widzieć wszystkiego w przeglądarce.
To ważny moment. Będziemy opracowywać horyzontalne normy obejmujące innowacyjne technologie AI, które za pięć lub dziesięć lat będą uważane za oczywiste przez nas wszystkich. Tempo przyjmowania norm wzrosło. Właśnie dlatego musimy teraz upewnić się, że uwzględniamy jak najwięcej aspektów, w tym kwestie etyczne i społeczne.
Mimo że normy są dobrowolne, korzystają z nich decydenci i organy regulacyjne. Wiele państw dąży do osiągnięcia Celów Zrównoważonego Rozwoju ONZ. Normy będą musiały zagwarantować wiele aspektów wiarygodności wykorzystywanych technologii AI, w tym poufności i bezpieczeństwa funkcjonalnego urządzeń, systemów i infrastruktur wykorzystujących technologię AI. Mamy szerokie grono interesariuszy – środowiska akademickie, organy ochrony konsumentów, przemysł oraz organy regulacyjne – którzy definiują normy pomagające decydentom wykonywać pracę, do której zostali upoważnieni. Nie można jednak przeforsować czegoś, co nie ma właściwych podstaw zdefiniowanych na poziomie technicznym. […]
Całość artykułu do przeczytania w miesięczniku „Wiadomości PKN 11/2019”.