EuropaPublikacjeWieści

Sztuczna inteligencja a zarządzanie ryzykiem

Sztuczna inteligencja to szansa ale i zagrożenie

Ważne
  • Działalność prowadzona przez różne podmioty, począwszy od banków, poprzez przedsiębiorstwa aż do administracji publicznej z upływem czasu staje się coraz bardziej złożona i skomplikowana – zależna od coraz to nowych czynników. Zarządzanie organizacjami (i ryzykiem) będzie musiało nadążać wykorzystując nowe narzędzia, w tym z obszaru określanego jako sztuczna inteligencja. Z drugiej strony, systemy sztucznej inteligencji same mogą być czynnikiem ryzyka: szans ale i zagrożeń.

Kiedy mamy do dyspozycji dwa pojęcia: „sztuczna inteligencja” i „zarządzanie ryzykiem”, to możemy powiązać te pojęcia rozważając dwa zagadnienia. Po pierwsze, jako zastosowanie (mechanizmów, systemów) sztucznej inteligencji w zarządzaniu ryzykiem. Po drugie, jako zarządzanie ryzykiem wywodzącym się z wykorzystania systemów sztucznej inteligencji. Różnica – jak sądzimy – jest oczywista.

FERMA, czyli Federation of European Risk Management Associations opublikowała pod koniec 2019 roku referat („paper”) zatytułowany “Artificial Intelligence Applied to Risk Management” co można – w pierwszym odruchu – przetłumaczyć jako “Zastosowanie sztucznej inteligencji w zarządzaniu ryzykiem”. Czyli podejmuje pierwsze zagadnienie wynikające z powiązania obu pojęć: sztucznej inteligencji i zarządzania ryzykiem.

Publikacja nie jest już „gorąca” ale wspominamy o niej, bo jest warta uwagi. O ile jeszcze dzisiaj tzw. sztuczna inteligencja traktowana może być jeszcze jako interesująca przyszłość o tyle wcześniej niż później może to być zagadnienie, które będzie na co dzień zaprzątało głowy osób zajmujących się zarządzaniem ryzykiem.

Musimy tu wtrącić jedną uwagę, nie uważamy pojęcia „sztuczna inteligencja” za najlepsze określenie potencjalnych możliwości stwarzanych przez technologie informatyczne.

Encyklopedia PWN definiuje pojęcie inteligencji następująco:

„inteligencja [łac. intelligentia ‘zdolność pojmowania’, ‘rozum’],
psychol. jedno z najbardziej wieloznacznych pojęć w psychologii odnoszące się do sprawności w zakresie czynności poznawczych; w języku potocznym przez inteligencję rozumie się najczęściej zdolność rozwiązywania problemów praktycznych, zdolności językowe lub kompetencje społeczne”

I dalej:

„Eksperci w tej dziedzinie badań są zgodni jedynie co do tego, że inteligencja jest zdolnością uczenia się na podstawie własnych doświadczeń oraz zdolnością przystosowania się do otaczającego środowiska; tak rozumiane cechy charakteryzują nie tylko człowieka, spotyka się je również u zwierząt. Inteligencja ujmowana jako cecha ludzkiego umysłu to zdolność myślenia, rozwiązywania problemów oraz angażowania adekwatnych do okoliczności procesów poznawczych (takich jak np.: uczenie się, szybkość przetwarzania informacji, zasoby uwagi, pamięć robocza, kontrola poznawcza), od których zależy skuteczność przystosowania się do nowych sytuacji i sprawność działania.”

Czy urządzenia wyposażone w oprogramowanie mogą (samodzielnie) myśleć? Nie, mogą tylko realizować takie polecenia (reguły), które zostały zaszyte wprost w programach (i zasobach danych)  bądź takie, które zostały zapisane jako warianty zależne od określonych stanów. W tych przypadkach mamy raczej do czynienia z pojęciem możliwości (systemów) stanowiących pochodną ludzkiej inteligencji.

Ale nie, nie zamierzamy zwalczać pojęcia „sztuczna inteligencja” – warto jednak cały czas pamiętać, że to co robią zaprogramowane urządzenia jest tylko i wyłącznie wynikiem myślenia człowieka. Póki co …

Niezależna Grupa Ekspertów Wysokiego Szczebla ds. Sztucznej Inteligencji , powołana przez Komisję Europejską w czerwcu 2018 r. zdefiniowała pojęcie sztucznej inteligencji w sposób następujący:

Systemy sztucznej inteligencji (SI) to oprogramowania komputerowe (i ewentualnie również sprzęt komputerowy) stworzone przez człowieka, które, biorąc pod uwagę złożony cel, działają w wymiarze fizycznym lub cyfrowym poprzez postrzeganie ich otoczenia dzięki gromadzeniu danych, interpretacji zebranych ustrukturyzowanych lub nieustrukturyzowanych danych, rozumowaniu na podstawie wiedzy lub przetwarzaniu informacji pochodzących z tych danych oraz podejmowaniu decyzji w sprawie najlepszych działań, które należy podjąć w celu osiągnięcia określonego celu. Systemy SI mogą wykorzystywać symboliczne reguły albo uczyć się modelu numerycznego, a także dostosowywać swoje zachowanie, analizując wpływ ich poprzednich działań na otoczenie.

Jako dyscyplina naukowa SI obejmuje różne podejścia i techniki, takie jak uczenie się maszyn (czego konkretnymi przykładami są uczenie głębokie i uczenie przez wzmacnianie), rozumowanie maszyn (obejmujące planowanie, programowanie działań, reprezentowanie wiedzy i rozumowanie, wyszukiwanie i optymalizację) oraz robotyka (obejmująca sterowanie, postrzeganie, czujniki i urządzenia wykonawcze, a także integrację wszystkich innych technik w systemach cyberfizycznych).

Źródło:
Independent High-Level Expert Group on Artificial Intelligence set up by the European Commission; “A definition of AI: main capabilities and disciplines. Definition developed for the purpose of the AI HLEG’s deliverables”; 2019

I do tej definicji odnosi się przywoływania publikacja (referat) FERMA.

Autorzy opracowania poddają pod rozwagę czy i w jaki sposób mechanizmy (systemy) sztucznej inteligencji mogą wspierać podejmowanie decyzji w ramach procesów zarządzania ryzykiem.  Samemu zagadnieniu sztucznej inteligencji nie poświęcają wiele uwagi odsyłając czytelników do publikacji źródłowych. Próbują zdefiniować wpływ sztucznej inteligencji na ramy zintegrowanego zarządzania ryzykiem (ERM Framework), Ramy określone w publikacji COSO z 2017 roku, znanej zapewne wszystkim zawodowo zajmujących się zarządzaniem ryzykiem.

I tu mamy niespodziankę, bo zamiast szczegółowych rozważań na temat wykorzystania sztucznej inteligencji jako wsparcia w procesach zarządzania ryzykiem autorzy opracowania – niejako wbrew tytułowi – najpierw podjęli się opisania tego drugiego zagadnienia, a mianowicie włączenia problematyki „ryzyka AI” w ramy ERM. Bazując na 5 głównych składnikach ERM, które COSO zdefiniowało jako:

  • Nadzór i kultura
  • Strategia i ustalanie celów
  • Dokonania
  • Przegląd i weryfikacja
  • Informacje, komunikacja i sprawozdawczość

uzupełniono poszczególne składniki ERM o elementy związane z identyfikacją, analizą i oceną ryzyka wywodzącego się z zastosowania systemów sztucznej inteligencji a także ujawniania ryzyka AI jak i reagowania na nie.

Zaletą tej publikacji jest wskazanie tzw. generycznej listy czynników ryzyka związanego z zastosowaniem sztucznej inteligencji – w odniesieniu do 3 zasadniczych obszarów ryzyka:

  • Ryzyka strategicznego i środowiskowego
  • Ryzyka operacyjnego
  • Ryzyka biznesowego

Kolejny rozdział (4) to powrót do tytułu, do rozważań o zastosowaniach AI (Artifficial Intelligence) w zarządzaniu ryzykiem w poszczególnych fazach, tj. identyfikacji, analizy i oceny ryzyka, jego agregacji (w tym ustalania ekspozycji na ryzyko) a także monitorowania ryzyka i reagowania na ryzyko – ze szczególnym wskazaniem na transfer ryzyka.

W publikacji zdefiniowano – dosyć oględnie – ośmioetapowy proces („AI Roadmap”) włączania mechanizmów AI w mechanizmy zarządzania ryzykiem. Dość oględnie bo – mimo wszystko – jest to chyba jeszcze pieśń przyszłości. I zapewne jeszcze przez długi czas nie każda organizacja będzie mogła (finansowo)  sobie pozwolić na stosowanie tych narzędzi. Trzeba bowiem pamiętać, że tzw. „big data” to tylko jeden z elementów całej układanki nazywanej sztuczną inteligencją.

Editor

In rebus prosperis et ad voluntatem nostram fluentibus superbiam magnopere, fastidium arrogantiamque fugiamus. >>> W sytuacjach pomyślnych i gdy wszystko dzieje się według naszej woli, wystrzegajmy się pychy, zuchwalstwa i buty.

Powiązane artykuły