Zawartość

ZAUFANIE PODSTAWĄ WSZYSTKIEGO

2019-12-05
ZAUFANIE PODSTAWĄ WSZYSTKIEGO

W ciągu ostatniego stulecia automatyzacja spowodowała rozwój wielu gałęzi przemysłu. Od niedawna ludzie muszą pracować z jednostkami, które coraz częściej wykorzystują technologię sztucznej inteligencji (Artificial Intelligence – AI).

W zakładach produkcyjnych zaprogramowa­ne ramiona robotów i ludzie pracują w bliskiej odległości od siebie. W transporcie wykorzy­stuje się coraz więcej zautomatyzowanych sys­temów. Pojazdy autonomiczne wykorzystują zaawansowane systemy wspomagania kierow­cy, natomiast współczesny autopilot i systemy bezpieczeństwa wykorzystują systemy wspo­magania manewrowania samolotem. Obydwa opierają się na algorytmach przetwarzania danych z czujników analizujących dane po­zyskane z wielu czujników umieszczonych wokół pojazdów i samolotów w celu zapew­nienia bezpiecznych i wydajnych podróży. W opiece zdrowotnej specjaliści wykorzystu­ją analizy dużych zbiorów danych pozyskiwa­nych przez algorytmy uczenia maszynowego w celu lepszej diagnostyki chorób.

Bariery wdrażania

Największą barierą we wdrożeniu technolo­gii sztucznej inteligencji są obawy o wiarygodność systemu. Projekty prowadzone przez SC 42/WG 3 w tym obszarze nie tylko próbują zidentyfikować i stworzyć ramy dla pojawiających się problemów, lecz także pomagają zmniejszać obawy zarówno dzięki technicznemu podejściu, jak i powiązaniu z wymaganiami pozatechnicznymi, takimi jak wy­zwania etyczne i społeczne. To rewolucyjne po­dejście – które SC 42 przyjmuje, analizując peł­ny ekosystem sztucznej inteligencji – umożliwi przyjęcie technologii AI na szeroką skalę, a to jako wszechobecna technologia umożliwi cyfrową trans­formację – mówi Wael Diab, przewodzący pracom normalizacyj­nym w zakresie technologii AI w ramach podkomitetu 42 wspólnego komitetu IEC i ISO (ISO/IEC JTC 1) dla technologii informacyjnych.

W tych i wielu innych sytuacjach ludzie muszą zaufać maszynom, dlatego tak istotne jest, by nic nie poszło źle. W miarę rozwoju nowych produktów i usług oraz wprowadzania technologii AI, jej powszechne zasto­sowanie będzie sukcesem tylko wtedy, jeśli ludzie po­czują, że mogą tej technologii zaufać. Oznacza to, że jeśli wystąpi problem, będzie można zrozumieć, co się stało, jak się stało i jak go uniknąć w przyszłości.

Dr David Filip, Przewodniczący SC 42/WG 3 mówi o wiarygodności technologii AI.

Czym jest wiarygodność i dlaczego jest tak istotna?

W naszej pracy normalizacyjnej zidentyfi­kowaliśmy pewne cechy wiarygodności, takie jak odpowiedzialność, stronniczość, sterowal­ność, wyjaśnialność, poufność, solidność/wy­trzymałość, odporność oraz bezpieczeństwo. Jednak dla mnie, zanim te wszystkie aspekty zostaną wzięte pod uwagę, zawsze wraca się do przejrzystości albo przejrzystej weryfiko­walności zachowań i wyników systemów AI. Czy wynik działań systemu AI można zwery­fikować w sposób przejrzysty, czy jest to tzw. black box, innymi słowy, czy jest wiarygodny, czy nieprzejrzysty? Czy jest ktoś, kto może to ocenić pod kątem słabych punktów lub nie­zamierzonych konsekwencji? Aby system był godny zaufania, musimy być w stanie zrozu­mieć wewnętrzne działanie algorytmu.

Wiedząc, że uczenie maszynowe zosta­ło już funkcjonalnie zdefiniowane i opiera się na dużych ilościach danych w zbiorach szkoleniowych, maszyny będą tak dobre jak dane im dostarczone. Aby zatem uzyskać wiarygodność, ludzie nadal będą musieli być częścią procesu, będą musieli sprawdzać i kontrolo­wać podstawowe algorytmy technologii AI oraz to, czy powiązane dane szkoleniowe nie wprowadzają nieuczciwych lub niepożądanych uprzedzeń.

Jak normy mogą pomóc w osiągnięciu transparentności?

Normy stoją za wszystkimi systemami, które spra­wiają, że nasza cywilizacja działa w sposób, jaki znamy; istnieje wiele przykładów, takich jak koleje z systemem sprzed ponad 100 lat lub HTML 5, który określa wła­ściwości i zachowania treści stron internetowych, bez których użytkownik nie mógłby widzieć wszystkiego w przeglądarce.

To ważny moment. Będziemy opracowywać hory­zontalne normy obejmujące innowacyjne technolo­gie AI, które za pięć lub dziesięć lat będą uważane za oczywiste przez nas wszystkich. Tempo przyjmowania norm wzrosło. Właśnie dlatego musimy teraz upewnić się, że uwzględniamy jak najwięcej aspektów, w tym kwestie etyczne i społeczne.

Mimo że normy są dobrowolne, korzystają z nich decydenci i organy regulacyjne. Wiele państw dąży do osiągnięcia Celów Zrównoważonego Rozwoju ONZ. Normy będą musiały zagwarantować wiele aspektów wiarygodności wykorzystywanych technologii AI, w tym poufności i bezpieczeństwa funkcjonalnego urządzeń, systemów i infrastruktur wykorzystujących technologię AI. Mamy szerokie grono interesariuszy – środowiska akademickie, organy ochrony konsu­mentów, przemysł oraz organy regulacyjne – którzy definiują normy pomagające decydentom wykonywać pracę, do której zostali upoważnieni. Nie można jednak przeforsować czegoś, co nie ma właściwych podstaw zdefiniowanych na poziomie technicznym. […]

 

Całość artykułu do przeczytania w miesięczniku „Wiadomości PKN 11/2019”.