Między zaufaniem a algorytmem. Co banki mogą zyskać dzięki sztucznej inteligencji?
W ostatnim czasie pośród rozlicznych technologii, jakie wspierają nasze funkcjonowanie zarówno w codziennym życiu, jak i na rynku finansowym, szczególnego znaczenia nabiera sztuczna inteligencja i uczenie maszynowe. Prezentujemy rozmowę dr Anny Jarmuszkiewicz z dr. inż. Aleksandrem Smywińskim-Pohlem, adiunktem Instytutu Informatyki Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie, na temat rozwoju i przyszłości sztucznej inteligencji, również w instytucjach finansowych.
Jakie wyróżniamy obecnie główne rodzaje sztucznej inteligencji (m.in. AI generatywna, duże modele językowe, systemy uczące się na danych transakcyjnych)?
Ten temat jest dość złożony. Zasadniczo w obrębie sztucznej inteligencji wyodrębnia się dwa nurty – sztuczną inteligencję opartą o niezawodne reguły wnioskowania oraz uczenie maszynowe, które wykorzystuje duże zbiory danych, w celu wykrycia pewnych prawidłowości statystycznych. Systemy uczące się są zatem przedstawicielami tego drugiego nurtu, a duże modele językowe są przykładem systemu uczącego się. Generatywna sztuczna inteligencja, służąca do automatycznego tworzenia tekstu, obrazów, muzyki czy filmów, jest przykładem stosunkowo nowego podejścia w obrębie sztucznej inteligencji – systemów uczących się samodzielnie (self-supervised learning). Tutaj też mamy do czynienia z uczeniem, ale nie nadajemy z góry określonego celu, jaki ma realizować dany model, a jedynie np. oczekujemy, że odtworzy on brakujący fragment tekstu lub obrazu. Dzięki takiemu podejściu model uzyskuje wiedzę na temat ogólnych zasad funkcjonowania języka czy tego, co może być przedmiotem percepcji wzrokowej, dzięki czemu później bardzo łatwo zaadaptować go do bardziej złożonych zadań, takich jak pisanie wierszy czy generowanie obrazu na podstawie opisu w języku naturalnym.
W jakim stopniu i w jakich konkretnych obszarach banki mogą z tych technologii korzystać? Czy znasz przykłady wdrożeń – choćby na etapie testowym – które pokazują realny potencjał biznesowy?
Jednym z najistotniejszych zastosowań sztucznej inteligencji obecnie jest możliwość efektywniejszego analizowania dużych zbiorów danych zawierających tekst. W przeszłości, chcąc dokonać analizy tego rodzaju, konieczne było zaprojektowanie skomplikowanego mechanizmu ekstrakcji informacji, który był zawodny i dostosowany do pojedynczego zadania. Dzisiaj to samo zadanie może zostać zrealizowane znacznie niższym kosztem. Połączenie dwóch metod: wyszukiwania semantycznego (które opiera się na małych modelach językowych) oraz generowania tekstu (o którym wspomniałem wcześniej), pozwala na formułowanie w zasadzie dowolnych pytań, na które systemy RAG (retrieval augmented generation) bardzo szybko pozwalają znaleźć odpowiedź. Są one popularne, ponieważ ze względu na charakter dużych modeli językowych, których wiedza ogranicza się do danych, na których były trenowane, systemy te pozwalają „uzupełnić” wiedzę takiego modelu prywatnymi danymi instytucji wykorzystującej to podejście. Należy tutaj podkreślić, że systemy RAG nie muszą wykorzystywać zewnętrznych serwisów takich jak OpenAI, ale mogą posiłkować się znacznie mniejszymi modelami, takimi jak polski Bielik, który można uruchomić nawet na laptopie. Pozwala to instytucjom na zagwarantowanie, że żadne dane nie opuszczą ich infrastruktury (rozwiązanie on-premises), co jest szczególnie istotne dla instytucji finansowych. Warto dodać, że systemy RAG oparte na Bieliku są już wdrażane w niektórych polskich bankach, w szczególności w zakresie przyspieszenia obsługi klienta.
Jak rozwiązania AI, takie jak chatboty oparte na dużych modelach językowych, mogą usprawnić proces obsługi klienta?
Obsługa klienta to właśnie jeden z obszarów, gdzie rozwiązania sztucznej inteligencji są wdrażane w pierwszej kolejności. Dotyczy to przede wszystkim sytuacji, w których klienci zadają podobne pytania, ale używając nieco innych sformułowań. Duże modele językowe świetnie radzą sobie z tym problemem i w połączeniu z mechanizmem wyszukiwania informacji (czyli wspomnianym RAG-iem), pozwalają na sformułowanie odpowiedzi niemal natychmiast, co przyczynia się do znaczącego odciążenia kanałów komunikacyjnych.
Warto jednak zwrócić uwagę, że potencjał rozwiązań AI jest większy niż tylko udzielanie zwięzłych informacji na podstawie dokumentów źródłowych – modele te coraz częściej potrafią komunikować się z wewnętrznymi systemami danej instytucji i mogą realizować również zadania takie jak chociażby podanie salda na koncie czy wysokości kolejnej raty kredytu. W perspektywie oznacza to, że komunikacja z instytucjami (w tym bankami) może w mniejszym stopniu opierać się np. na aplikacjach mobilnych, a w większym na czymś, co dla człowieka jest najbardziej naturalne – rozmowie.
Czy widzisz potencjał w personalizacji oferty banku w czasie rzeczywistym (np. dopasowywanie oferty kredytu, lokaty) na podstawie analizy zachowań i preferencji klientów?
Oczywiście, potencjał tego rodzaju istnieje, ale pod warunkiem, że klient banku zgodzi się, aby jego dane były przetwarzane w ten sposób. Tym niemniej istnieją pewne ryzyka związane z automatycznym oferowaniem spersonalizowanych ofert klientom, bez zatwierdzania ich przez człowieka. Znane są już przypadki, w których klienci wykorzystywali niedoskonałości takich modeli, aby zawsze uzyskać lepszą ofertę niż ta, na którą zgodziłby się człowiek. Modele językowe znane są ze swojej „gadatliwości” oraz uprzejmości, co może prowadzić do sytuacji, w której klient np. będzie wielokrotnie powtarzał jakąś frazę, co doprowadzi do przełamania zabezpieczeń modelu językowego. Konieczne jest zatem wdrożenie odpowiednich mechanizmów bezpieczeństwa, jeśli chcielibyśmy udostępnić funkcjonalność tego rodzaju.
Jak zapewnić bezpieczeństwo i zgodność z przepisami przy tak personalizowanej komunikacji?
Zgodność z przepisami takimi jak RODO to przede wszystkim pozostawienie klientowi możliwości zdecydowania, czy jego dane są gromadzone oraz przetwarzane w sposób zautomatyzowany. Jeśli taka zgoda jest uzyskana, a dane przetwarzane są wyłącznie wewnątrz organizacji (on-premises), to nie istnieje ryzyko naruszenia tej regulacji. RODO nakłada również wymogi w zakresie szyfrowania danych czy uwierzytelniania użytkowników, ale są to standardowe mechanizmy wykorzystywane przez banki. W odniesieniu do AI ACT sprawa jest bardziej skomplikowana, ponieważ szereg systemów banków podpada pod definicję systemów wysokiego ryzyka. W tym przypadku konieczne jest spełnienie wymogów takich jak dokumentowanie sposobu działania systemu, zapewnienie danych treningowych odpowiedniej jakości, rejestrowanie działań systemu czy ocenę zgodności z AI ACT. Ważna jest tutaj również możliwość odwołania się od decyzji instytucji (interwencja człowieka), jeśli decyzja została podjęta całkowicie automatycznie (np. odmowa udzielenia kredytu). Myślę, że w tym kontekście warto wdrażać te procesy stopniowo, od zastosowań, w których ryzyko jest najmniejsze, i dokładnie ocenić ryzyka oraz potencjalne zyski z zastosowania AI.
Jak, z Twojego punktu widzenia, sztuczna inteligencja może ułatwiać analizę ryzyka, np. kredytowego czy inwestycyjnego?
Analiza ryzyka kredytowego czy inwestycyjnego to tematy od dawna podejmowane w kontekście zastosowania sztucznej inteligencji. To, co zmieniło się w ostatnim czasie, to możliwość uwzględnienia również danych multimodalnych (przede wszystkim tekstowych) w tym procesie. Z tego względu widać dwie możliwe ścieżki działania – zastosowanie tradycyjnych algorytmów uczenia maszynowego, które uzupełniane są danymi automatycznie pozyskanymi z dokumentów tekstowych (co jest istotnym przyspieszeniem w stosunku do manualnego wprowadzania tych danych), lub zastosowanie podejścia agentowego, gdzie model językowy ma dostęp do różnych systemów banku i „sam” prowadzi tego rodzaju analizę. Drugie podejście, choć ma duży potencjał generalizacji, jest chyba jednak ciągle zbyt ryzykowne, ze względu na występowanie zjawiska halucynacji. Dlatego widzę zastosowanie tych modeli przede wszystkim w zakresie przyspieszenia procesu pozyskiwania i strukturalizacji danych (w szczególności tekstowych).
Które obszary bankowości inwestycyjnej mogłyby najbardziej skorzystać z AI (np. zarządzanie portfelem, automatyzacja tradingu, wykrywanie fraudów)?
Widzę tutaj dwa podstawowe zastosowania. W pierwszej kolejności duże modele językowe mogą pełnić funkcję edukatorów klienta. Mogą zapoznać go z podstawowymi zasadami rozważnego inwestowania czy przedstawić mu charakterystykę określonych instrumentów finansowych. W tym sensie mogą pomóc zrozumieć klientowi przewagę określonego produktu oferowanego przez bank.
Widzę również duży potencjał związany z zarządzaniem portfelem. Nie mam tutaj na myśli rekomendacji, które sam co jakiś czas dostaję (ile będzie kosztowało złoto wg ChatGPT), ale bardziej możliwość syntetycznego ujęcia informacji, które dostępne są na rynku oraz automatycznej analizy ich wpływu na posiadane instrumenty finansowe. Wyobrażam sobie, że system tego rodzaju śledziłby doniesienia medialne i formułował pewne obserwacje, związane ze zwiększonym ryzykiem inwestycyjnym czy pojawiającą się okazją. Ze względu na bardzo dobrą zdolność podsumowywania tekstów modele językowe świetnie spisują się w roli osobistego asystenta przygotowującego zindywidualizowaną „prasówkę”. Co do pozostałych zastosowań, takich jak automatyzacja tradingu czy wykrywanie fraudów, już teraz systemy oparte na uczeniu maszynowym są wykorzystywane w tych obszarach. W tradingu wiemy jednak, że nie zawsze ma to pozytywne konsekwencje dla rynku, ponieważ mogą występować „efekty stadne botów”, które reagują większą paniką niż zwykli ludzie. W odniesieniu do fraudów warto również zauważyć, że sztuczna inteligencja jest wykorzystywana również w złym celu i, niestety, możemy spodziewać się, że nadużycia finansowe będą coraz bardziej wyrafinowane. Czasami zwykły ludzki „zdrowy rozsądek” może się tutaj okazać lepszym rozwiązaniem niż najbardziej zaawansowana sztuczna inteligencja.
Gdzie Twoim zdaniem leży kluczowy „game-changer” w obszarze AI w bankowości?
Trudno mi jednoznacznie wskazać taki obszar, ale wydaje mi się, że postępy w zakresie rozwoju dużych modeli językowych oraz multimodalnych, które obserwuję w ostatnim czasie, powinny przyczynić się do znacznego obniżenia kosztu przetwarzania dokumentów źródłowych. W szczególności w sytuacji, w której klient bierze kredyt, musi dostarczyć szereg dokumentów, które zwykle nie posiadają ujednoliconego formatu. Obecnie dokumenty te można przetwarzać bardzo skutecznie, inwestując „w jednego prompta”, ponieważ dostępne modele radzą sobie znakomicie np. z ekstrakcją tabel czy kluczowych informacji, nawet z dokumentów, które dostarczane są w formie skanów. Wydaje mi się, że ich wykorzystanie przyczyni się do zmniejszenia kosztu podjęcia decyzji oraz – co ważne z punktu widzenia klienta – przyspieszenia jej.
Ważnym zagadnieniem jest odpowiedzialność za działania sztucznej inteligencji. Kto w praktyce powinien odpowiadać za skutki działania systemów AI (developer, bank, dostawca, zarząd)? Jak to wygląda z perspektywy regulacji i prawa?
To trudne pytanie. Zasadniczo oczywiście jest to regulowane obecnie w prawie, w odniesieniu do rozwiązań informatycznych czy jakichkolwiek innych systemów wykorzystywanych przez podmioty prawne, i odpowiedzialny jest za to zarząd banku. Ale rozumiem, że pytanie to ma na celu wskazanie, czy takie rozwiązanie jest słuszne. Osobiście jestem zwolennikiem traktowania AI jako pewnego narzędzia, z którym wiąże się ryzyko, ponadto narzędzia o zdolnościach zbliżonych do zdolności ludzkich. Widzę tutaj analogię chociażby z obowiązkowym ubezpieczeniem samochodu – właściciel samochodu ma obowiązek jego ubezpieczenia, ponieważ może on wyrządzić szkodę wielkiej wartości, której przeciętny właściciel nie będzie mógł pokryć z własnych środków. Wydaje mi się, że podobny mechanizm powinien być obowiązkowy dla instytucji wdrażających narzędzia AI o wysokim ryzyku.
Jakie wyzwania etyczne i społeczne dostrzegasz w kontekście wdrażania AI w sektorze finansowym?
Widzę tutaj dwa podstawowe problemy. Po pierwsze – banki jako instytucje o dużym zapleczu finansowym stoją na nierównej pozycji względem konsumentów. Wykorzystanie sztucznej inteligencji może przyczynić się do dalszego pogłębienia tej nierówności. Dlatego niewątpliwie istotnym aspektem jest demokratyzacja w dostępie do sztucznej inteligencji. Inicjatywy takie jak Spichlerz, który stworzył polski model językowy Bielik, są niewątpliwie znakomitym przykładem tego, jak społeczność sama może zawalczyć o to, by sztuczna inteligencja stała się bardziej dostępna dla Kowalskiego. Drugi aspekt, który dostrzegam, to oczywiście groźba utraty pracy przez osoby, których funkcje przejmuje sztuczna inteligencja. Nie wiem, czy jest to już rozważane na poważnie, ale jeśli faktycznie nastąpi transformacja, w wyniku której tysiące lub setki tysięcy ludzi w Polsce pozostanie bez pracy po wdrożeniu AI, to spodziewam się jakiejś formy opodatkowania tej technologii. Wszak nie chcemy chyba, żeby to osiągnięcie naukowe przyczyniało się wyłącznie do uczynienia ludzi bogatych jeszcze bogatszymi, ale żeby zyskała na nim cała ludzkość?
W jaki sposób można ograniczyć uprzedzenia (tzw. bias) i zapewnić przejrzystość modeli?
To bardzo złożony temat. Etyczna sztuczna inteligencja nie powinna powielać stereotypów, którymi kierują się ludzie, a które są wszechobecne w danych, którymi karmi się modele językowe. Dlatego odpowiednie przygotowanie tych danych, gwarantujące usunięcie uprzedzenia, co wymusza m.in. AI ACT, jest bardzo istotnym aspektem technicznym. Możliwe jest również stosowanie promptów systemowych, które instruują model tak, by pozbawiony był uprzedzeń, czy takie dostrajanie (fine-tuning) modelu, aby odzwierciedlał określone wartości, w tym brak dyskryminacji. Warto jednak mieć na uwadze, że czasami nadmierna ingerencja w model i dążenie za wszelką cenę do inkluzywności wzmacnia halucynacje modelu. Znana jest sytuacja, w której model poproszony o wygenerowanie obrazów z nazistami, przedstawił osoby o różnych kolorach skóry, co ma się nijak do prawdy historycznej. Kluczowe w tym aspekcie jest zadbanie o kontrolę nad tym, jakie dane są wykorzystywane np. w scoringu kredytowym. Choć wyeliminujemy np. informację o rasie z danych, na podstawie których podejmowana jest decyzja, to może się okazać, że kod pocztowy osoby stanowi ukrytą informację na ten temat (znane są publicznie dostępne zbiory danych oraz systemy AI, które posiadają tego rodzaju błędy).
„Off the shelf” czy rozwiązania „szyte na miarę”? Kiedy opłaca się sięgnąć po gotowe narzędzia AI (np. chmurowe rozwiązania od dużych dostawców), a kiedy warto inwestować w budowę własnych modeli i infrastruktury?
Myślę, że trudno odpowiedzieć na to pytanie w sposób całkowicie generalny. Niewątpliwie każde z tych rozwiązań ma swoje wady i zalety. Wśród klientów Enelpolu najczęściej pojawia się wymóg rozwiązań on-premises, w sytuacji, w której przetwarzane dane są szczególnie cenne dla podmiotu. Firmy zdają sobie sprawę z faktu, że dane to jeden z najcenniejszych zasobów, jakim dysponują, dlatego coraz mniej chętnie dzielą się one z dużymi podmiotami tymi danymi. Dość wspomnieć, że wyszukiwarka Google zaczęła pokazywać streszczenie informacji dostępnych na jakiejś stronie internetowej, bez odwiedzania tej strony, co przyczynia się do spadku lub całkowitego wyzerowania dochodu takiego podmiotu. Jeśli podmiot obawia się podobnego scenariusza, to zdecydowanie lepiej jest postawić na rozwiązania szyte na miarę, które dodatkowo lepiej uwzględniają specyfikę wymagań klienta.
Jak oceniasz opłacalność inwestycji w AI w sektorze bankowym – czy ROI jest już teraz widoczne, czy to raczej inwestycja długoterminowa?
Wydaje mi się, że odpowiedź na to pytanie zależy od zastosowania. Są takie obszary, gdzie zwrot z inwestycji jest natychmiastowy – mam tu na myśli automatyzację obsługi klienta, skracanie czasu potrzebnego do weryfikacji dokumentów, automatyczne generowanie pism, analizę umów czy inne procesy wymagające wcześniej zaangażowania zespołów ludzkich. W tych przypadkach ROI pojawia się szybko i jest łatwo mierzalne. Istnieją jednak również bardziej złożone projekty, takie jak budowa własnych modeli językowych czy agentów AI, które wymagają większych nakładów i przynoszą korzyści dopiero w dłuższej perspektywie. Myślę, że dla banków kluczowe jest dziś przyjęcie zwinnego podejścia: testowanie, wdrażanie na małą skalę i skalowanie tam, gdzie widać wyraźny efekt. Dużą przewagą sztucznej inteligencji jest to, że daje się łatwo mierzyć – możemy przecież z dużą dokładnością oszacować, ile czasu i środków zaoszczędziliśmy dzięki konkretnemu wdrożeniu. To ułatwia ocenę opłacalności i budowanie kolejnych etapów strategii AI.
Jakie trendy rynkowe i technologiczne w obszarze AI w finansach uważasz za najważniejsze w najbliższych latach?
W najbliższych latach z pewnością będziemy świadkami coraz większej integracji dużych modeli językowych z systemami backoffice’owymi banków. Chodzi o to, aby model AI nie tylko rozmawiał z klientem, ale również potrafił wykonać konkretne czynności – sprawdzić status wniosku, zaktualizować dane, przygotować ofertę itp. Tego rodzaju integracja wymaga jednak wysokiego poziomu bezpieczeństwa i precyzyjnego zarządzania uprawnieniami, dlatego myślę, że dużym trendem będzie rozwój tzw. agentów AI działających w kontrolowanym środowisku, np. wewnętrznej chmurze banku. Poza tym coraz większe znaczenie będzie mieć personalizacja – zarówno w komunikacji z klientem, jak i w dopasowywaniu oferty czy podejmowaniu decyzji kredytowych. Ostatni obszar, który warto obserwować, to rozwój modeli multimodalnych – pozwalających nie tylko przetwarzać tekst, ale również obrazy, dźwięk, wykresy czy dane tabelaryczne. Tego rodzaju modele zrewolucjonizują sposób, w jaki banki przetwarzają złożone dokumenty i analizują dane nienumeryczne.
Jak AI wpłynie na przyszłość pracy w bankowości? Jakie kompetencje będą kluczowe dla pracowników banków w erze AI?
W mojej opinii AI nie zastąpi całkowicie ludzi, ale zmieni charakter wielu zawodów. Pracownicy banków będą coraz częściej pełnić rolę „nadzorców” nad systemami AI, moderatorów, osób odpowiedzialnych za interpretację i walidację decyzji podejmowanych automatycznie. Kompetencje przyszłości to przede wszystkim umiejętność współpracy z narzędziami AI – rozumienie ich ograniczeń, umiejętność formułowania skutecznych promptów, oceny jakości odpowiedzi, dostrzegania błędów czy uprzedzeń w działaniu modeli. Kluczowe będą też kompetencje miękkie – zdolność empatycznej rozmowy z klientem, w sytuacjach gdy AI nie wystarcza, oraz etyczna wrażliwość, pozwalająca podejmować odpowiedzialne decyzje. Osobiście wierzę, że sztuczna inteligencja nie zastąpi ludzi, którzy potrafią korzystać z AI – i to właśnie ci pracownicy, którzy będą w stanie połączyć wiedzę branżową z kompetencjami cyfrowymi, staną się najbardziej poszukiwani na rynku.