Ostatnia aktualizacja: kwiecień 2026
Ocena zdolności kredytowej AI to zastosowanie modeli uczenia maszynowego i dużych modeli językowych (LLM) do szacowania ryzyka niewypłacalności kredytobiorcy — nie tylko na podstawie danych strukturalnych (dochód, historia w BIK), lecz także sygnałów nieustrukturyzowanych (opisy transakcji, metadane urządzenia, dane z open bankingu PSD2). Od 2 sierpnia 2026 r. systemy scoringu kredytowego są traktowane jako wysokiego ryzyka na podstawie Aneksu III pkt 5(b) rozporządzenia 2024/1689 (EU AI Act), z obowiązkami w zakresie jakości danych, dokumentacji, nadzoru człowieka i monitoringu. Wyrok TSUE w sprawie Schufa (C-634/21, 7 grudnia 2023 r.) już dziś kwalifikuje sam scoring jako „zautomatyzowaną decyzję indywidualną” w rozumieniu art. 22 RODO — więc obowiązek wyjaśnienia i ścieżki odwoławczej istnieje teraz, a nie od 2026.
Czym jest ocena zdolności kredytowej AI?
Ocena zdolności kredytowej AI to zastosowanie modeli uczenia maszynowego — gradient boostingu (XGBoost, LightGBM), głębokich sieci neuronowych, a od 2023 r. także dużych modeli językowych — do pytania, czy wnioskodawca spłaci kredyt. Wyjściem modelu jest prawdopodobieństwo niewypłacalności (PD — probability of default), zwykle przekładane na interpretowalny scoring, na podstawie którego bank lub pożyczkodawca podejmuje decyzję o udzieleniu, odmowie albo wycenie kredytu. Różnica wobec klasycznego modelu BIK / FICO opartego na regresji logistycznej jest podwójna: model AI wchłania znacznie więcej cech (nawet kilka tysięcy, włącznie z opisami transakcji i metadanymi urządzenia) i tworzy nieliniowe interakcje między nimi w sposób, którego żaden analityk kredytowy nie odtworzy ręcznie.
Dwie rzeczy sprawiają, że w 2026 r. temat wygląda inaczej niż pięć lat temu. Po pierwsze — scoring kredytowy jest jednym z ośmiu przypadków, które EU AI Act wprost wymienia jako wysokiego ryzyka (Aneks III, pkt 5b) — więc obowiązki, które nie dotyczą większości zastosowań AI, wchodzą w życie 2 sierpnia 2026 r. Po drugie — wyrok TSUE w sprawie Schufa (C-634/21, 7 grudnia 2023 r.) stwierdził, że sam scoring — a nie tylko ostateczna decyzja kredytowa, która się na nim opiera — stanowi zautomatyzowaną decyzję indywidualną w rozumieniu art. 22 RODO. Ekspozycja prawna nie jest więc przyszła; jest żywa w każdej operacji na terenie UE już dziś.
Jak działa ocena zdolności kredytowej AI?
Pipeline oceny zdolności AI ma cztery etapy. Każdy etap ma dziś konkretne obowiązki wynikające z RODO, EU AI Act albo Wytycznych EBA 2023 w sprawie udzielania i monitorowania kredytów.
Scoring tradycyjny (BIK) a ocena kredytowa AI
Różnica to nie „AI zastępuje BIK” — sam BIK od 2022 r. wdraża modele ML obok klasycznego scoringu BIK-u (na wzór FICO 10T w USA). Rzeczywista zmiana dotyczy tego, jak model traktuje dane i jak regulator traktuje model. Poniższa tabela podsumowuje różnice operacyjne obserwowane u polskich i europejskich kredytodawców w latach 2024–2025.
| Wymiar | Scoring tradycyjny (regresja logistyczna, BIK) | Ocena AI (GBM, DNN, LLM) |
|---|---|---|
| Liczba cech | 20–50 zmiennych strukturalnych | 500–10 000, w tym nieustrukturyzowane (opisy transakcji, urządzenie, geolokalizacja) |
| Akceptacja wnioskodawców „thin file” (bez historii) | Niska — brak historii → odmowa | +27% akceptacji przy tej samej stopie niewypłacalności (przegląd CFPB Upstart 2023) |
| Przejrzystość | Współczynniki bezpośrednio interpretowalne | Wyjaśnienie post-hoc (SHAP, LIME) wymagane |
| Status regulacyjny (UE) | Art. 22 RODO, jeśli w pełni zautomatyzowany | Zawsze art. 22 RODO + wysokie ryzyko EU AI Act od 2.08.2026 |
| Ryzyko dyskryminacji | Znane, prostsze do audytu | Dyskryminacja proxy przez skorelowane cechy (kod pocztowy, typ urządzenia) |
| Wskaźnik Gini (retail UE) | 0,55–0,65 | 0,68–0,78 (benchmark ML EBA 2023) |
Nagłówkowe „+27% akceptacji thin-file” pochodzi z przeglądu Upstart (największego amerykańskiego pożyczkodawcy w pełni opartego na AI) opublikowanego przez US Consumer Financial Protection Bureau w 2023 r. Podobny efekt na klientach near-prime raportuje LendingClub. W warunkach polskich ta liczba jest częściowo aspiracyjna — koszt zgodności z RODO i EU AI Act sprawia, że greenfieldowe wdrożenie AI-only underwritingu jest w PL trudniejsze niż w USA, a UOKiK i KNF już sygnalizują, że zamierzają czytać wyniki scoringu ML „pod kątem proxy”.
Dlaczego scoring AI jest wysokim ryzykiem pod EU AI Act?
Aneks III, pkt 5(b) rozporządzenia 2024/1689 wymienia „systemy AI przeznaczone do oceny zdolności kredytowej osób fizycznych lub ustalania ich scoringu kredytowego, z wyjątkiem systemów AI używanych do wykrywania oszustw finansowych”. Ta klasyfikacja odzwierciedla trzy różne szkody, które regulator wycenia:
- Odmowa kredytu to zdarzenie istotne dla dobrobytu. Fałszywe odrzucenie wniosku o kredyt hipoteczny albo kredyt MŚP powoduje materialne skutki — nieudaną przeprowadzkę, wstrzymaną ekspansję firmy — które nie są odwracalne, gdy model się pomylił.
- Nieprzejrzystość decyzji niszczy prawo do odwołania, które RODO już obiecuje. Tysiącdrzewowy GBM nie wyjaśnia się sam przez współczynniki; regulator zaimportował więc wyjaśnialność jako obowiązek materialny, nie ozdobę.
- Nierówny wpływ po cechach chronionych (płeć, pochodzenie, wiek) jest dobrze udokumentowaną wadą modeli ML, gdy cechy są skorelowane z klasami chronionymi. Badanie empiryczne FinRegLab z 2020 r. na pięciu amerykańskich kredytodawcach wykazało niewyjaśnioną dysproporcję u wszystkich pięciu — nawet po wprost usunięciu cech chronionych.
Konkretnie — od 2 sierpnia 2026 r. dostawcy i użytkownicy systemów oceny AI muszą wdrożyć: art. 9 (system zarządzania ryzykiem), art. 10 (zarządzanie danymi), art. 11 (dokumentacja techniczna), art. 13 (przejrzystość dla użytkowników), art. 14 (nadzór ludzki), art. 15 (dokładność, solidność, cyberbezpieczeństwo) oraz zarejestrować system w bazie UE na podstawie art. 49. Biuro AI UE w wytycznych implementacyjnych z marca 2026 r. potwierdziło, że obowiązki dotyczą istniejących modeli produkcyjnych, nie tylko nowych wdrożeń — co istotnie obciąża banki z dziedziczoną infrastrukturą ML.
Wyrok Schufa TSUE — co zmienił w grudniu 2023 r.
Niemiecka Schufa jest największym biurem informacji kredytowej w Europie (polskim odpowiednikiem jest BIK S.A., obsługujący większość banków w Polsce). W sprawie OQ przeciwko Land Hessen (C-634/21), rozstrzygniętej 7 grudnia 2023 r., Trybunał Sprawiedliwości UE orzekł, że wyprodukowanie takiego scoringu samo w sobie jest zautomatyzowaną decyzją indywidualną w rozumieniu art. 22 RODO, gdy scoring „odgrywa rolę determinującą” w decyzji kredytowej — nawet jeśli końcową decyzję formalnie podejmuje człowiek po stronie banku.
Praktyczne konsekwencje dla każdego europejskiego — w tym polskiego — dostawcy oceny AI są cztery:
- Producent scoringu (nie tylko bank) potrzebuje podstawy prawnej z art. 22 ust. 2 RODO — zgody, umowy albo przepisu prawa krajowego.
- Wnioskodawca ma prawo do interwencji człowieka, wyrażenia swojego stanowiska i zakwestionowania scoringu.
- Wnioskodawca ma prawo do „istotnych informacji o zasadach podejmowania decyzji” — a TSUE uściślił, że nie może się to sprowadzać do publikacji samej listy cech wejściowych.
- W połączeniu z art. 15 (prawo dostępu) wnioskodawca może zażądać kopii scoringu oraz cech, które za nim stoją.
Dla polskiego rynku wyrok oznacza, że BIK — nie tylko banki i SKOK-i — musi udostępnić ścieżkę odwoławczą i wyjaśnienie. UODO (Prezes Urzędu Ochrony Danych Osobowych) jest organem właściwym; pierwsze polskie skargi w tym trybie po Schufa są obecnie procedowane. Dla fintechów działających jednocześnie w UE i w USA architektura zgodności się zbliża do amerykańskiego reżimu „adverse action notice” (ECOA / FCRA), ale z mocniejszymi prawami proceduralnymi. To jeden z powodów, dla których amerykańscy underwriterzy oparci na AI (Upstart, Pagaya) ostrożnie wchodzą na rynek UE.
Pięć realnych przypadków użycia na rynku polskim i europejskim
1. Aasa Polska — krótkoterminowy kredyt konsumencki ML
Aasa i podobne polskie podmioty niebankowe (Vivus, Provident, Wonga) od 2020 r. opierają szybkie udzielanie pożyczek online na modelach ML — pod nadzorem KNF i w ramach ustawy z 12 maja 2011 r. o kredycie konsumenckim (Dz.U. 2011 nr 126 poz. 715), która w art. 9 nakłada obowiązek oceny zdolności kredytowej. Działania egzekucyjne UOKiK w 2024 r. zasygnalizowały ryzyko dyskryminacji cenowej w krótkoterminowych pożyczkach konsumenckich — to prawdopodobnie pierwszy polski regulator, który zamierza testować zarzuty dyskryminacji proxy względem scorecardu ML. Powiązane bezpośrednio z argumentami o efekcie zakotwiczenia, które polski regulator już stosuje do ujawnień w sprzedaży detalicznej.
2. BIK + banki PL — scoring hybrydowy
BIK S.A. (właściciel Biuro Informacji Kredytowej) od 2022 r. pilotuje warianty ML swojego scoringu obok klasycznego modelu BIK, dostępne dla największych banków jako dodatkowa warstwa decyzyjna. Rekomendacja T KNF (2013, aktualizacje 2019 i 2023) wymaga od banków udokumentowania metod oceny, a Rekomendacja S (2014, aktualizacja 2022) dokłada wymogi dla kredytów hipotecznych. Wyrok Schufa przenosi część tej dokumentacji z „wewnętrznej polityki banku” do „prawa wnioskodawcy do wyjaśnienia” — co zmienia kontrakt między BIK-iem a klientem końcowym.
3. Revolut Bank (LT / UE) — paszport EU do Polski
Revolut prowadzi pełnostacowy silnik decyzji kredytowych ML na licencji bankowej Banku Litwy, który obejmuje debety, karty i pożyczki osobiste w całej UE — w tym Polsce. Przegląd nadzorczy Banku Litwy z 2024 r. wskazał konieczność „wzmocnionej wyjaśnialności i kontroli z udziałem człowieka” — bezpośrednia zapowiedź art. 14 EU AI Act. Publicznie dostępne materiały Revolut podkreślają kody przyczyn oparte na SHAP oraz kolejkę przeglądu ludzkiego dla każdego odrzuconego wnioskodawcy powyżej ustalonego progu.
4. Upstart (USA) — benchmark „thin-file”
Upstart wykorzystuje około 1600 cech modelu i udzielił pożyczek o wartości ponad 30 mld USD do końca 2024 r. Wyniki z przeglądu CFPB z 2023 r. pokazują +27% akceptacji względem benchmarku banku narodowego przy równoważnej stopie niewypłacalności oraz +43% dla wnioskodawców poniżej 25. roku życia. Przewaga cenowa bierze się z segmentacji „szarej strefy” scoringu FICO 620–700, którą tradycyjny scorecard zbiera w jeden profil ryzyka — to pryncypialnie ten sam problem, który BIK próbuje rozwiązać dla segmentu polskich klientów bez długiej historii zobowiązań.
5. Klarna (SE) — scoring BNPL w czasie rzeczywistym
Klarna ocenia każdą transakcję „kup teraz, zapłać później” w czasie poniżej 200 ms u ponad 150 milionów konsumentów (w tym w Polsce od 2021 r.). Scoring łączy cechy grafu transakcji (sprzedawca docelowy, skład koszyka, prędkość zakupów) z własnościowym modelem gradient boostingu. Szwedzki organ ochrony danych (IMY) wszczął w 2024 r. postępowanie w sprawie zgodności Klarny z art. 22 RODO po wyroku Schufa; w chwili pisania sprawa jest w toku. Dla polskiego konsumenta to ważny precedens — ten sam tryb skargi stoi otworem przed UODO w przypadku polskich dostawców BNPL (PayPo, Twisto, Allegro Pay).
Dyskryminacja proxy, fairness i information gain
Modele ML nie tworzą dyskryminacji; wchłaniają dyskryminację obecną w danych treningowych, a czasem wzmacniają ją przez cechy pośrednie (proxy). Trzy ustalenia empiryczne kształtują rozmowę 2025–2026:
- Bartlett, Morse, Stanton i Wallace (2022, Journal of Financial Economics) przeanalizowali 7 milionów wniosków hipotecznych w USA i stwierdzili, że kredytodawcy algorytmiczni dyskryminują o 40% mniej na etapie akceptacji niż pożyczkodawcy twarzą w twarz, ale nadal wytwarzają luki cenowe dla kredytobiorców czarnoskórych i latynoskich rzędu 7,9 punktu bazowego w oprocentowaniu.
- Bussmann, Giudici, Marinelli i Papenbrock (2021, Computational Economics) pokazali, że wyjaśnienia oparte na SHAP na modelach XGBoost dla scoringu kredytowego odzyskują interpretowalne drivery ryzyka — ale różne „surogaty” wyjaśniające potrafią przypisywać sobie istotnie różne ważności cech, co art. 13 EU AI Act będzie musiał rozstrzygnąć w praktyce.
- Hurlin, Pérignon i Saurin (2022, HEC Paris) wskazują najbardziej subtelne ryzyko: „fairness przez nieświadomość” (samo usunięcie płci, pochodzenia) zawodzi, bo kod pocztowy, typ urządzenia, a nawet tożsamość sprzedawcy w opisie transakcji niosą silną korelację statystyczną z klasami chronionymi.
Model używający systemu operacyjnego telefonu (Android vs iOS) jako cechy dyskryminuje proxy po dochodzie. Model używający kodu pocztowego dyskryminuje proxy po pochodzeniu w większości dużych polskich miast (por. struktura społeczna Warszawa/Kraków vs mniejsze ośrodki). Audytuj cechy pod kątem wzajemnej informacji z klasami chronionymi, nie tylko po nazwach zmiennych.
Siedem zasad zgodności z EU AI Act dla oceny kredytowej AI
Syntezując EU AI Act, wytyczne EBA 2023, RODO i wyrok Schufa — siedem konkretnych zasad opisuje, czym jest „zgodna ocena AI” od sierpnia 2026 r.
- Prawidłowa klasyfikacja systemu. Każdy model oceniający zdolność kredytową osób fizycznych jest wysokiego ryzyka, niezależnie od wewnętrznego brandingu. Systemy wyłącznie do wykrywania oszustw są wyłączone — ale modele „hybrydowe” (fraud + ocena) nie są.
- Zarządzanie danymi (art. 10). Zbiory treningowe, walidacyjne i testowe muszą być relewantne, reprezentatywne, wolne od błędów i kompletne. Dokumentuj pochodzenie i właściwości statystyczne każdej cechy.
- Przejrzystość dla użytkownika (art. 13). Dostarcz instrukcję użycia, zamierzony cel, metryki dokładności, znane ograniczenia i ważność cech. Typowa karta danych amerykańskiego dostawcy już nie wystarczy.
- Nadzór ludzki (art. 14). Recenzenci-ludzie muszą rozumieć wyjścia, interweniować i nadpisywać decyzję. Po wyroku Schufa jest to prawo indywidualnego wnioskodawcy, nie tylko wymóg systemowy.
- Monitoring post-market (art. 72). Dryft i metryki fairness muszą być monitorowane na produkcji; istotne aktualizacje modelu uruchamiają obowiązek ponownej oceny.
- Obowiązek wyjaśnienia per wnioskodawca. Z art. 22 RODO przez Schufa: istotne informacje o logice plus ścieżka odwoławcza. Rozwiązanie praktyczne: prekalkulowane kody przyczyn SHAP zapisane razem z każdym zdarzeniem scoringu.
- Retencja dziesięcioletnia (art. 18). Dokumentacja techniczna, logi i rejestr post-market muszą być przechowywane przez dziesięć lat po wprowadzeniu systemu na rynek. Planuj architekturę storage’u od razu pod ten horyzont.
Moja perspektywa — czy użyłbym AI przy swoim pierwszym kredycie hipotecznym?
Piszę to jako licealista, który prawdopodobnie złoży pierwszy wniosek o kredyt hipoteczny za 5–7 lat i który już dziś handluje CFD na Plus500 jako praktyczny test tego, jak rynki wyceniają ryzyko. Szczera odpowiedź: tak, ale tylko tam, gdzie AI jest połączona z analitykiem kredytowym mającym realne uprawnienie do nadpisania modelu. Ryzyko zakotwiczenia w pełni zautomatyzowanej wycenie polega na tym, że scoring staje się decyzją; dobry analityk ma wolność wyjścia poza model, gdy trajektoria życiowa wnioskodawcy (zmiana branży, okres próbny, pierwsza nieruchomość) to dokładnie ta informacja, na której model nie był trenowany. W polskich pożyczkach detalicznych domyślną opcją coraz częściej są „reguły modelu”, a badania z obszaru teorii popychania (nudge) mówią, że konsumenci rzadko kwestionują scoring, nawet gdy mogą. Wymagania z 2 sierpnia 2026 r. to dokładnie zakład regulatora, że ten domyślny bieg rzeczy dryfuje w stronę mniejszej odpowiedzialności, jeśli go nie poprowadzi ustawodawca.
Wnioski — co zrobić przed 2 sierpnia 2026 r.
Dla każdego polskiego fintechu, banku albo dostawcy technologii dotykającego decyzji kredytowych w UE data 2 sierpnia 2026 r. nie jest nominalnym deadline’em zgodności — jest momentem, w którym wiarygodna skarga prawna może zostać złożona przeciwko produkcyjnemu systemowi AI. Plan operacyjny na najbliższe cztery miesiące: (i) zmapuj, czy Twój model spełnia Aneks III pkt 5(b); (ii) zamknij luki dokumentacyjne (lineage danych, pochodzenie cech, metryki ewaluacyjne); (iii) wpiąć wyjaśnienia oparte na SHAP lub kontrfaktycznych do każdego zdarzenia decyzji; (iv) uruchom kolejkę nadzoru ludzkiego z realną władzą nadpisania; (v) wdroż monitoring dryftu i fairness z udokumentowanymi progami; (vi) przygotuj pakiet informacyjny z art. 22 RODO dla wnioskodawcy; (vii) zarejestruj system w bazie UE.
Dla szerszej perspektywy, jak algorytmy wchodzą w interakcję z rynkami, zobacz równowaga rynkowa oraz ustalenia Calvano i in. o konwergencji cenowej modeli uczenia maszynowego. Dla warstwy behawioralnej — dlaczego wnioskodawcy rzadko kwestionują niekorzystny scoring, dlaczego kredytodawcy wykorzystują ekonomię behawioralną w cenowaniu — klaster behavioral economics na DTF jest naturalną kontynuacją. Anglojęzyczna wersja tego artykułu stoi pod ai-credit-scoring.
Najczęstsze pytania (FAQ)
Czym jest ocena zdolności kredytowej AI w jednym zdaniu?
Ocena zdolności kredytowej AI to zastosowanie modeli uczenia maszynowego lub LLM — zwykle drzew gradient boostingu, sieci neuronowych albo modeli językowych — do szacowania prawdopodobieństwa niewypłacalności kredytobiorcy na podstawie danych strukturalnych (dochód, historia w BIK) i nieustrukturyzowanych sygnałów (opisy transakcji, metadane urządzenia).
Czy ocena kredytowa AI jest legalna w Polsce i UE?
Tak, ale jest silnie regulowana. Od 2 sierpnia 2026 r. EU AI Act klasyfikuje ją jako system AI wysokiego ryzyka na podstawie Aneksu III pkt 5(b). Od grudnia 2023 r. wyrok TSUE w sprawie Schufa (C-634/21) traktuje sam scoring jako zautomatyzowaną decyzję indywidualną w rozumieniu art. 22 RODO, wymagając podstawy prawnej, obowiązku wyjaśnienia i ścieżki odwoławczej z udziałem człowieka.
Co to jest wyrok Schufa i dlaczego ma znaczenie dla Polski?
Wyrok TSUE w sprawie Schufa (C-634/21, 7 grudnia 2023 r.) stwierdza, że samo wyprodukowanie scoringu kredytowego jest zautomatyzowaną decyzją indywidualną pod art. 22 RODO, gdy odgrywa rolę determinującą w decyzji kredytowej — nawet jeśli ostateczną decyzję formalnie podejmuje człowiek. Dla Polski oznacza to, że BIK S.A. (a nie tylko bank) potrzebuje podstawy prawnej, musi oferować wyjaśnienie i ścieżkę odwoławczą do UODO, a nie tylko pośredniczyć w wewnętrznej polityce banku.
Jak dokładna jest ocena AI w porównaniu z tradycyjnym scoringiem BIK?
Empirycznie modele gradient boostingu i głębokie sieci osiągają współczynnik Gini rzędu 0,68–0,78 na europejskich portfelach retail, wobec 0,55–0,65 dla regresji logistycznej (EBA 2023). W populacjach „thin file” przegląd CFPB z 2023 r. dotyczący Upstart wskazuje +27% akceptacji przy równoważnej stopie niewypłacalności względem benchmarku banku narodowego. Największe zyski są skupione na wnioskodawcach, których tradycyjny scorecard zbiera w jeden profil ryzyka.
Jakie są największe ryzyka oceny kredytowej AI?
Trzy dominują: dyskryminacja proxy (cechy takie jak kod pocztowy czy system operacyjny telefonu korelują z klasami chronionymi), nieprzejrzystość (tysiącdrzewowy GBM nie wyjaśnia się sam — wymagane są SHAP albo wyjaśnienia kontrfaktyczne) oraz dryft (warunki rynkowe, wzorce oszustw i demografia zmieniają się szybciej niż modele są retrenowane). Artykuły 10, 13, 14 i 72 EU AI Act są zaprojektowane dokładnie wokół tych trzech trybów zawodzenia.
Czy LLM-y można wykorzystać do oceny zdolności kredytowej?
W gotowej do produkcji formie LLM-y są w 2026 r. zwykle ekstraktorami cech, a nie modelami decyzyjnymi end-to-end. Konwertują opisy transakcji, dokumenty KYC albo załączniki na ustrukturyzowane cechy, które trafiają do klasyfikatora niższego szczebla. Prace akademickie (np. GPT-4 w połączeniu z XGBoost) raportują umiarkowane przyrosty dokładności przy wysokim koszcie wnioskowania i dodatkowym obciążeniu zgodności (niedeterminizm, wrażliwość na prompt). End-to-end decyzyjne LLM-y są dziś uznawane za niezdatne do wdrożeń wysokiego ryzyka.
Kiedy EU AI Act zaczyna obowiązywać dla oceny zdolności kredytowej?
Obowiązki wysokiego ryzyka dla systemów scoringu kredytowego z Aneksu III pkt 5(b) — zarządzanie danymi, dokumentacja techniczna, nadzór ludzki, rejestrowanie zdarzeń i monitoring post-market — wchodzą w życie 2 sierpnia 2026 r. Wytyczne implementacyjne Biura AI UE z marca 2026 r. potwierdzają, że obowiązki te obejmują istniejące modele produkcyjne, a nie tylko nowe wdrożenia — dlatego remediacja dziedziczonych portfeli ML trwa już w polskich bankach i fintechach.
Bibliografia
- EU AI Act (rozporządzenie 2024/1689) — Aneks III pkt 5(b), art. 9–15, 49, 72
- Wyrok TSUE w sprawie C-634/21 (OQ v Land Hessen, Schufa) — 7 grudnia 2023 r.
- RODO art. 22 — zautomatyzowane podejmowanie decyzji w indywidualnych przypadkach
- EBA (2023) — Wytyczne w sprawie udzielania i monitorowania kredytów, załącznik ML
- Ustawa z 12 maja 2011 r. o kredycie konsumenckim (Dz.U. 2011 nr 126 poz. 715), art. 9
- KNF — Rekomendacja T (2013, aktualizacja 2023) i Rekomendacja S (aktualizacja 2022)
- UOKiK — priorytety egzekucyjne 2024, kredyt konsumencki i dyskryminacja cenowa
- UODO — orzecznictwo post-Schufa, art. 22 RODO w kontekście polskim
- Biuro Informacji Kredytowej (BIK S.A.) — scoring BIK, pilotaże ML 2022–2025
- US CFPB — przegląd underwritingu Upstart, 2023
- FinRegLab (2020) — Machine Learning in Credit Underwriting (badanie 5 kredytodawców)
- Bartlett, R., Morse, A., Stanton, R., & Wallace, N. (2022). Consumer-Lending Discrimination in the FinTech Era. Journal of Financial Economics, 143(1), 30–56.
- Bussmann, N., Giudici, P., Marinelli, D., & Papenbrock, J. (2021). Explainable Machine Learning in Credit Risk Management. Computational Economics, 57, 203–216.
- Hurlin, C., Pérignon, C., & Saurin, S. (2022). The Fairness of Credit Scoring Models. HEC Paris Research Paper.
- Klein, A. (2020). Credit Denial in the Age of AI. Brookings Institution.
- Upstart — Raporty inwestorskie 2023/2024
- LendingClub — Raport roczny 2024