Sieć neuronowa: 7 pojęć, wzory i kod PyTorch (2026)

Ostatnia aktualizacja: kwiecień 2026

Sieć neuronowa to model matematyczny inspirowany biologicznymi neuronami, który uczy się rozpoznawać wzorce, dopasowując wagi połączeń między warstwami węzłów. Każdy neuron oblicza sumę ważoną sygnałów wejściowych, dodaje bias i przepuszcza wynik przez funkcję aktywacji: y = σ(Σ wᵢxᵢ + b). W 2026 roku sieci neuronowe napędzają modele językowe (LLM), systemy wizji komputerowej i agenty AI — a nowe regulacje EU AI Act wymagają ich audytowalności.

Backpropagation Funkcje aktywacji CNN RNN Transformer Deep Learning PyTorch

Jak działa pojedynczy neuron w sieci?

Pojedynczy sztuczny neuron — perceptron — wykonuje trzy operacje: mnoży każde wejście przez wagę, sumuje wyniki z biasem i przepuszcza je przez funkcję aktywacji. To ta sama logika, którą w 1943 roku opisali McCulloch i Pitts, ale dopiero Rosenblatt w 1958 roku pokazał, że wagi można uczyć automatycznie.

y = σ( w₁x₁ + w₂x₂ + … + wₙxₙ + b )

Gdzie: xᵢ to sygnały wejściowe (np. piksele obrazu), wᵢ to wagi określające ważność każdego sygnału, b to bias (przesunięcie progu decyzji), a σ to funkcja aktywacji wprowadzająca nieliniowość. Bez niej cała sieć — niezależnie od głębokości — redukowałaby się do jednego przekształcenia liniowego.

W praktyce to oznacza: pojedynczy neuron potrafi rozdzielić dane linią prostą (klasyfikacja binarna). Żeby rozpoznać kota na zdjęciu, potrzebujesz milionów neuronów zorganizowanych w warstwy — i właśnie do tego służy uczenie maszynowe.

Anatomia sztucznego neuronu — schemat działania Diagram przedstawia pojedynczy sztuczny neuron: 3 wejścia x1, x2, x3 z wagami w1, w2, w3, sumator z biasem b, funkcję aktywacji σ i wyjście y. Wzór: y = σ(Σwᵢxᵢ + b). Anatomia sztucznego neuronu DecodeTheFuture.org sztuczny neuron, perceptron, wagi, bias, funkcja aktywacji Schemat działania pojedynczego sztucznego neuronu z wagami, biasem i funkcją aktywacji. Diagram image/svg+xml pl © DecodeTheFuture.org x₁ x₂ x₃ w₁ w₂ w₃ Σ + b σ y y = σ( w₁x₁ + w₂x₂ + w₃x₃ + b )
Analogia biologiczna:

Biologiczny neuron „odpala” (fire), gdy suma sygnałów na dendrytach przekroczy próg. Sztuczny neuron robi to samo — ale zamiast impulsów elektrycznych przetwarza liczby, a zamiast synaps ma wagi, które zmienia algorytm uczący.

Architektura sieci: warstwy wejściowe, ukryte i wyjściowe

Sieć neuronowa składa się z warstw: wejściowej (przyjmuje dane), ukrytych (przetwarza je) i wyjściowej (zwraca wynik). Im więcej warstw ukrytych, tym „głębsza” sieć — stąd termin deep learning (uczenie głębokie).

GPT-4 ma szacunkowo ponad 200 warstw Transformer, BERT — 24 warstwy, a prosty klasyfikator MNIST może mieć zaledwie 2–3 warstwy. Głębokość nie jest celem samym w sobie — to kompromis między zdolnością do modelowania złożonych zależności a kosztem obliczeniowym i ryzykiem overfittingu.

Kluczowe pojęcia architektury:

PojęcieCo robiAnalogia
Warstwa wejściowaPrzyjmuje surowe dane (piksele, tokeny, liczby)Zmysły — oczy, uszy
Warstwy ukryteWyciągają coraz abstrakcyjniejsze cechyKora mózgowa — rozpoznawanie wzorców
Warstwa wyjściowaZwraca predykcję (klasa, prawdopodobieństwo, tekst)Decyzja — „to jest kot”
Wagi (weights)Siła połączenia między neuronami — uczą się z danychSiła synapsy
BiasPrzesuwa próg aktywacji neuronuWrodzony próg pobudzenia
ParametrySuma wszystkich wag i biasów — np. Llama 3 ma 405 mldŁączna „pamięć” sieci

Ważna obserwacja: pierwsze warstwy ukryte uczą się prostych wzorców (krawędzie, kolory), a głębsze — złożonych konceptów (twarze, zdania). To hierarchia abstrakcji, którą sieć buduje sama, bez ręcznego programowania cech. Właśnie dlatego deep learning zrewolucjonizował sztuczną inteligencję.

Funkcje aktywacji — dlaczego nieliniowość jest kluczowa?

Bez funkcji aktywacji sieć neuronowa — niezależnie od liczby warstw — sprowadza się do jednego przekształcenia liniowego: y = Wx + b. Nie odróżni kota od psa, bo granica decyzyjna będzie zawsze prostą linią. Funkcja aktywacji wprowadza nieliniowość, dzięki czemu sieć może modelować dowolnie złożone zależności.

FunkcjaWzórZakresKiedy stosować
ReLUmax(0, x)[0, ∞)Domyślny wybór w warstwach ukrytych CNN/FNN
Sigmoid1 / (1 + e⁻ˣ)(0, 1)Klasyfikacja binarna (warstwa wyjściowa)
Tanh(eˣ − e⁻ˣ) / (eˣ + e⁻ˣ)(−1, 1)RNN, gdy potrzebujesz wartości ujemnych
Softmaxeˣⁱ / Σeˣʲ(0, 1), suma = 1Klasyfikacja wieloklasowa (warstwa wyjściowa)
GELUx · Φ(x)(−0.17, ∞)Transformery (GPT, BERT, Llama)
SiLU / Swishx · σ(x)(−0.28, ∞)Modele wizji (EfficientNet, ConvNeXt)
Dlaczego ReLU zdominował deep learning?

ReLU rozwiązuje problem zanikającego gradientu (vanishing gradient) — pochodna dla x > 0 wynosi stale 1, więc gradient nie maleje w głębokich sieciach. Jest też obliczeniowo tani: jedna operacja max(0, x) zamiast eksponenty. Wadą jest „martwy neuron” — gdy wagi zepchnią wejście na stałe poniżej 0, neuron przestaje się uczyć. Stąd warianty jak Leaky ReLU (f(x) = max(0.01x, x)).

Jak sieć się uczy? Backpropagation i gradient descent

Trening sieci neuronowej to iteracyjny proces minimalizacji funkcji straty (loss function) — miary, jak bardzo predykcje sieci odbiegają od prawdziwych odpowiedzi. Dwa kluczowe algorytmy to:

Forward pass — obliczenie predykcji

Dane przepływają od warstwy wejściowej przez ukryte do wyjściowej. Każdy neuron oblicza swoją sumę ważoną i przepuszcza ją przez funkcję aktywacji. Na końcu sieć produkuje predykcję, którą porównujemy z prawdziwą etykietą.

Backward pass (backpropagation) — korekta wag

Algorytm backpropagation oblicza gradient (pochodną cząstkową) funkcji straty po każdej wadze sieci, stosując regułę łańcuchową. Gradient mówi: „w którą stronę i o ile zmienić tę wagę, żeby błąd zmalał”.

wᵢ ← wᵢ − η · ∂L/∂wᵢ

Gdzie: η (eta) to learning rate — krok, o jaki przesuwamy wagi. Za duży → sieć „przeskakuje” minimum. Za mały → trening trwa tygodniami. W praktyce w 2026 roku standard to optymalizator AdamW z learning rate ~3×10⁻⁴ i cosine schedule (stopniowe zmniejszanie η w trakcie treningu).

⚠️ Overfitting — najczęstszy problem

Sieć może „zapamiętać” dane treningowe zamiast nauczyć się wzorców. Objawy: wysoka dokładność na danych treningowych, niska na testowych. Lekarstwa: dropout (losowe wyłączanie neuronów), weight decay (kara za duże wagi), early stopping (przerwanie treningu gdy walidacja przestaje się poprawiać), augmentacja danych. W kontekście dużych modeli językowych (LLM) dodatkową techniką jest fine-tuning z małym learning rate.

5 architektur sieci neuronowych, które musisz znać

Nie ma jednej uniwersalnej sieci — różne problemy wymagają różnych architektur. Oto pięć najważniejszych w 2026 roku, od najprostszej po najnowszą.

1. Feedforward Neural Network (FNN) — sieć jednokierunkowa

Najprostsza architektura: dane przepływają w jednym kierunku, od wejścia do wyjścia. Brak pętli, brak pamięci. Dobre do klasyfikacji tabelarycznych danych i prostych problemów regresji. Architektura, od której zaczął się deep learning.

2. Convolutional Neural Network (CNN) — sieć splotowa

Zaprojektowana do danych przestrzennych: obrazów, wideo, sygnałów. Warstwa konwolucyjna przesuwa mały filtr (kernel, np. 3×3) po obrazie, wyciągając lokalne cechy — krawędzie, tekstury, kształty. Pooling redukuje wymiarowość. ResNet-50 (2015) ma 25 milionów parametrów i był jedną z pierwszych sieci, która przekroczyła ludzką dokładność w ImageNet.

3. Recurrent Neural Network (RNN) i LSTM — sieci rekurencyjne

Mają pętlę zwrotną — wyjście z poprzedniego kroku staje się dodatkowym wejściem. Dzięki temu „pamiętają” kontekst sekwencji. LSTM (Long Short-Term Memory) rozwiązuje problem zanikającego gradientu w RNN, dodając bramki kontrolujące przepływ informacji. Do 2017 roku były standardem w NLP i tłumaczeniu maszynowym — zanim Transformery je wyparły.

4. Transformer — architektura uwagi

Mechanizm self-attention pozwala każdemu tokenowi „patrzeć” na wszystkie inne tokeny jednocześnie, zamiast sekwencyjnie jak RNN. To umożliwiło zrównoleglenie treningu i skalowanie do miliardów parametrów. GPT-4, Claude, Gemini, Llama 3 — wszystkie oparte na Transformerze. Złożoność obliczeniowa O(n²) względem długości sekwencji jest jednocześnie siłą i słabością. Więcej o tym, jak Transformery są wykorzystywane w praktyce, znajdziesz w artykule o RAG (Retrieval-Augmented Generation).

5. State Space Models (SSM) i Mamba — nowa fala

SSM (np. Mamba, Jamba) osiągają liniową złożoność O(n) zamiast O(n²) Transformera, dzięki selektywnemu mechanizmowi stanu. W benchmarkach 2025–2026 hybrydy SSM+Transformer (jak Jamba 1.5) osiągają zbliżoną jakość do czystych Transformerów przy niższym koszcie inferencji — szczególnie na bardzo długich kontekstach (100k+ tokenów).

Porównanie 5 architektur sieci neuronowych — FNN, CNN, RNN, Transformer, SSM Diagram porównawczy: FNN (dane tabelaryczne, O(n)), CNN (obrazy, O(n·k²)), RNN (sekwencje krótkie, O(n)), Transformer (tekst/multimodal, O(n²)), SSM/Mamba (długie sekwencje, O(n)). Każda architektura z typowym zastosowaniem i złożonością obliczeniową. Porównanie 5 architektur sieci neuronowych DecodeTheFuture.org FNN, CNN, RNN, Transformer, SSM, Mamba, porównanie architektur Porównanie 5 głównych architektur sieci neuronowych ze złożonością i zastosowaniami. Diagram image/svg+xml pl © DecodeTheFuture.org Porównanie architektur sieci neuronowych ARCHITEKTURA ZASTOSOWANIE ZŁOŻONOŚĆ FNN jednokierunkowa Dane tabelaryczne, klasyfikacja O(n) CNN splotowa Obrazy, wideo, wizja komputerowa O(n·k²) RNN / LSTM rekurencyjna Szeregi czasowe, krótkie sekwencje O(n) Transformer self-attention LLM, NLP, multimodal, generacja tekstu O(n²) SSM / Mamba state space Długie sekwencje, hybrydy z Transf. O(n) n = długość sekwencji · k = rozmiar kernela · Kolor: zielony = niska, żółty = średnia, czerwony = wysoka

Twoja pierwsza sieć neuronowa — przykład w PyTorch

Poniżej kompletny, działający klasyfikator cyfr MNIST w PyTorch. Sieć feedforward z dwiema warstwami ukrytymi osiąga ~97,5% dokładności. Jeśli znasz Pythona, możesz go uruchomić w Google Colab w 2 minuty.

Python — PyTorch 2.x
import torch
import torch.nn as nn
from torchvision import datasets, transforms
from torch.utils.data import DataLoader

# 1. Dane — MNIST (60 000 obrazów 28×28 cyfr 0-9)
transform = transforms.Compose([
    transforms.ToTensor(),
    transforms.Normalize((0.1307,), (0.3081,))
])
train = DataLoader(
    datasets.MNIST("data", train=True, download=True, transform=transform),
    batch_size=64, shuffle=True
)

# 2. Model — 3-warstwowa sieć feedforward
model = nn.Sequential(
    nn.Flatten(),                 # 28×28 → 784
    nn.Linear(784, 256),          # warstwa ukryta 1
    nn.ReLU(),
    nn.Dropout(0.2),              # regularyzacja
    nn.Linear(256, 128),          # warstwa ukryta 2
    nn.ReLU(),
    nn.Dropout(0.2),
    nn.Linear(128, 10)            # 10 klas (cyfry 0-9)
)

# 3. Trening
optimizer = torch.optim.AdamW(model.parameters(), lr=3e-4)
loss_fn = nn.CrossEntropyLoss()

for epoch in range(5):
    total_loss = 0
    for images, labels in train:
        optimizer.zero_grad()             # wyzeruj gradienty
        output = model(images)            # forward pass
        loss = loss_fn(output, labels)    # oblicz stratę
        loss.backward()                   # backpropagation
        optimizer.step()                  # aktualizuj wagi
        total_loss += loss.item()
    print(f"Epoka {epoch+1}/5 — strata: {total_loss/len(train):.4f}")

print("Trening zakończony ✓")

Co robi każda linia? Flatten zamienia obraz 28×28 pikseli na wektor 784 liczb. Linear(784, 256) to warstwa w pełni połączona — 784 wejść × 256 neuronów = 200 704 wagi + 256 biasów. ReLU wprowadza nieliniowość. Dropout(0.2) losowo wyłącza 20% neuronów w trakcie treningu, zapobiegając overfittingowi. CrossEntropyLoss mierzy, jak daleko predykcja jest od prawdziwej etykiety. AdamW to optymalizator — ulepszona wersja gradient descent z adaptive learning rate i weight decay.

Jeśli chcesz pójść dalej — na przykład dostosować pre-trenowany model do własnego zadania — przeczytaj nasz artykuł o treningu LoRA, gdzie pokazujemy jak tanio fine-tunować modele językowe.

Zastosowania sieci neuronowych w 2026 roku

Sieci neuronowe przeszły od akademickiej ciekawostki do infrastruktury krytycznej. Oto kluczowe domeny, gdzie w 2026 roku mają realny wpływ:

Modele językowe (LLM) — GPT-4o, Claude 3.5, Gemini 2.0, Llama 3.1 to Transformery z setkami miliardów parametrów. Generują tekst, kod, analizują dokumenty, prowadzą rozmowy. W połączeniu z architekturą RAG dają dostęp do aktualnych danych bez ponownego treningu.

Wizja komputerowa — CNN i Vision Transformery (ViT) rozpoznają nowotwory na zdjęciach RTG z dokładnością porównywalną z radiologami. W Europie system AI w dermatologii uzyskał certyfikat CE jako wyrób medyczny klasy IIa.

Autonomiczne pojazdy — sieci konwolucyjne przetwarzają dane z kamer i LiDAR-ów w czasie rzeczywistym. Tesla FSD v13 używa end-to-end sieci neuronowej, która zamienia surowe piksele na polecenia sterowania bez reguł pisanych ręcznie.

Nauka i odkrycia — AlphaFold 3 (2024) przewiduje strukturę białek i interakcje molekularne, potencjalnie przyspieszając projektowanie leków o dekady. W fizyce sieci neuronowe pomagają analizować dane z CERN (zderzacza LHC).

Finanse — modele deep learning wykrywają oszustwa w transakcjach kartowych z false positive rate poniżej 0,1%. W tradingu algorytmicznym sieci LSTM i Transformery prognozują ruchy cenowe — choć warto pamiętać, że rynki są chaotyczne i żadna sieć nie gwarantuje zysków.

Przetwarzanie języka naturalnego (NLP) — nie tylko chatboty. Sieci neuronowe tłumaczą w czasie rzeczywistym, streszczają dokumenty prawne, analizują sentiment w mediach społecznościowych. Bazą jest tokenizacja — proces zamiany tekstu na liczby zrozumiałe dla modelu.

Sieci neuronowe a EU AI Act — co zmieni się w 2026?

EU AI Act (rozporządzenie 2024/1689) wchodzi w pełną moc 2 sierpnia 2026. Dla sieci neuronowych oznacza to konkretne wymogi:

Systemy wysokiego ryzyka (medycyna, rekrutacja, kredyty, infrastruktura krytyczna) muszą spełniać wymogi audytowalności. W praktyce: musisz być w stanie wyjaśnić, dlaczego sieć podjęła daną decyzję. Dla modeli deep learning — które są z natury „czarnymi skrzynkami” — to wymaga technik Explainable AI (XAI): SHAP, LIME, attention maps.

Modele ogólnego przeznaczenia (GPAI) — takie jak GPT-4, Claude, Gemini — mają dodatkowe obowiązki: dokumentacja techniczna, raportowanie zdarzeń, ocena ryzyka systemowego. Dostawcy modeli z >10²⁵ FLOP treningu (tzw. „frontier models”) podlegają najostrzejszym wymogom.

Co to znaczy w praktyce? Jeśli budujesz system oparty na sieciach neuronowych w UE — musisz dokumentować dane treningowe, metryki bias/fairness i procedury monitoringu post-deployment. To nie jest bariera nie do przejścia, ale wymaga planowania od fazy projektowej. Dla mniejszych modeli (np. CNN do klasyfikacji produktów) wymagania są proporcjonalnie mniejsze.

Najczęstsze błędy przy budowaniu sieci neuronowych

Na podstawie dokumentacji PyTorch, kursów fast.ai i obserwacji z praktyki — oto pułapki, w które wpadają nawet doświadczeni inżynierowie:

Vanishing/exploding gradients — w głębokich sieciach gradienty mogą maleć (zanikać) lub rosnąć (eksplodować) warstwa po warstwie. Rozwiązania: batch normalization, residual connections (skip connections jak w ResNet), gradient clipping, odpowiedni dobór funkcji aktywacji (ReLU zamiast Sigmoid w warstwach ukrytych).

Data leakage — dane testowe „przeciekają” do treningu. Najczęstszy błąd: normalizacja całego datasetu przed podziałem na train/test. Poprawnie: najpierw dzielisz, potem normalizujesz — używając statystyk wyłącznie z danych treningowych.

Za duży model na za mało danych — sieć z milionami parametrów na datasecie z 500 próbek nauczy się go na pamięć. Reguła kciuka: liczba próbek treningowych powinna być co najmniej 10× większa od liczby parametrów (dla prostych modeli). Dla deep learning ratunkiem jest transfer learning — pretrenowany model dopasowujesz do swoich danych za pomocą fine-tuningu.

Ignorowanie learning rate — learning rate to najważniejszy hiperparametr. Za duży → trening niestabilny. Za mały → trening nie zbiega. W 2026 roku standardem jest cosine annealing schedule z warmup: zaczynasz od małego lr, zwiększasz przez pierwsze 5–10% kroków, potem stopniowo zmniejszasz.

Co dalej z sieciami neuronowymi?

Trzy kierunki, które w 2026 roku wyznaczają przyszłość:

Hybrydy Transformer + SSM — łączą globalną uwagę Transformera z liniową złożonością SSM. Jamba 1.5 (AI21 Labs) i Zamba (Zyphra) pokazują, że można mieć jakość Transformera przy ułamku kosztu inferencji na długich kontekstach. To może zmienić ekonomikę deploymentu LLM.

Interpretowalność mechanistyczna — Anthropic, OpenAI i DeepMind intensywnie badają, co sieci neuronowe „naprawdę wiedzą”. Techniki jak sparse autoencoders i circuit analysis pozwalają zidentyfikować konkretne neurony odpowiedzialne za konkretne zachowania. To kluczowe zarówno dla bezpieczeństwa AI, jak i dla spełnienia wymogów EU AI Act.

Neuromorphic computing — chipy inspirowane biologicznymi neuronami (Intel Loihi 2, IBM NorthPole) przetwarzają sygnały zdarzeniowo, nie w taktach zegara. Zużywają 100–1000× mniej energii niż GPU przy określonych zadaniach. To wciąż nisza, ale z potencjałem do zmiany infrastruktury edge AI.

Jeśli chcesz głębiej zrozumieć kontekst, w którym działają sieci neuronowe — zacznij od naszego artykułu o sztucznej inteligencji, a potem przejdź do uczenia maszynowego. Anglojęzyczną wersję tego artykułu z dodatkowymi szczegółami technicznymi znajdziesz w What Is a Neural Network? 5 Key Concepts for 2026.

FAQ — najczęściej zadawane pytania o sieci neuronowe

Czym się różni sieć neuronowa od deep learning?
Deep learning (uczenie głębokie) to podzbiór uczenia maszynowego, który używa sieci neuronowych z wieloma warstwami ukrytymi (zwykle >3). Każda sieć deep learning jest siecią neuronową, ale nie każda sieć neuronowa jest „głęboka” — prosty perceptron z jedną warstwą ukrytą to też sieć neuronowa, ale nie deep learning.
Ile warstw powinna mieć sieć neuronowa?
Nie ma uniwersalnej odpowiedzi. Proste zadania (klasyfikacja tabelaryczna) wymagają 2–3 warstw. Rozpoznawanie obrazów — 20–150 warstw (ResNet). Modele językowe — 32–200+ warstw Transformer. Zasada: zacznij od małej sieci i zwiększaj, dopóki dokładność rośnie na zbiorze walidacyjnym.
Czy mogę trenować sieć neuronową bez GPU?
Tak, ale zależy od skali. Prosty klasyfikator MNIST (jak w przykładzie powyżej) trenuje się na CPU w minuty. Modele CNN na ImageNet potrzebują GPU. Duże modele językowe wymagają klastrów GPU/TPU za miliony dolarów. Dla większości eksperymentów edukacyjnych wystarczy darmowy Google Colab z GPU T4.
Czy sieć neuronowa może się uczyć z małej ilości danych?
Tak — dzięki transfer learning. Zamiast trenować od zera, bierzesz model pretrenowany na dużym zbiorze (np. ImageNet, C4) i dostraszasz go na swoich 100–1000 przykładach. Techniki takie jak LoRA i adapter tuning pozwalają to zrobić przy minimalnych zasobach. Augmentacja danych (obracanie, przycinanie, szum) dodatkowo zwiększa efektywny rozmiar zbioru.
Jaki framework wybrać w 2026 — PyTorch czy TensorFlow?
W 2026 roku PyTorch dominuje w badaniach i coraz częściej w produkcji (szczególnie z PyTorch 2.x i torch.compile). TensorFlow/Keras pozostaje popularny w deploymencie mobilnym (TFLite) i edukacji. JAX (Google DeepMind) rośnie w użyciu w badaniach wymagających zaawansowanej automatycznej różniczkowania. Dla początkujących: zacznij od PyTorch.
Czy EU AI Act zabrania używania sieci neuronowych?
Nie. EU AI Act nie zabrania żadnej technologii — reguluje zastosowania. Systemy AI niskiego ryzyka (chatboty, filtry spamu) wymagają jedynie transparentności. Systemy wysokiego ryzyka (medycyna, rekrutacja) muszą spełniać wymogi audytowalności i dokumentacji. Zakazane są jedynie konkretne praktyki: masowy scoring społeczny, zdalna identyfikacja biometryczna w czasie rzeczywistym w przestrzeniach publicznych (z wyjątkami).
Na czym polega backpropagation prostymi słowami?
Backpropagation to algorytm, który mówi każdej wadze w sieci: „zmień się o tyle, żeby końcowy błąd zmalał”. Działa wstecz — od wyjścia do wejścia — obliczając, jak mocno każda waga przyczyniła się do błędu (za pomocą pochodnych cząstkowych). Potem optymalizator (np. AdamW) aktualizuje wagi o odpowiedni krok. Ten proces powtarza się tysiące razy (epoki), aż sieć osiągnie zadowalającą dokładność.

Bibliografia

  1. McCulloch, W. & Pitts, W. (1943). A Logical Calculus of the Ideas Immanent in Nervous Activity. Bulletin of Mathematical Biophysics, 5, 115–133. link.springer.com
  2. Rosenblatt, F. (1958). The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain. Psychological Review, 65(6), 386–408. doi.org/10.1037/h0042519
  3. Goodfellow, I., Bengio, Y. & Courville, A. (2016). Deep Learning. MIT Press. deeplearningbook.org
  4. He, K., Zhang, X., Ren, S. & Sun, J. (2015). Deep Residual Learning for Image Recognition. arXiv:1512.03385. arxiv.org/abs/1512.03385
  5. Vaswani, A. et al. (2017). Attention Is All You Need. arXiv:1706.03762. arxiv.org/abs/1706.03762
  6. Gu, A. & Dao, T. (2023). Mamba: Linear-Time Sequence Modeling with Selective State Spaces. arXiv:2312.00752. arxiv.org/abs/2312.00752
  7. Loshchilov, I. & Hutter, F. (2019). Decoupled Weight Decay Regularization (AdamW). arXiv:1711.05101. arxiv.org/abs/1711.05101
  8. Parlament Europejski. (2024). Rozporządzenie (UE) 2024/1689 — EU AI Act. eur-lex.europa.eu
  9. PyTorch Foundation. (2026). PyTorch Documentation 2.x. pytorch.org/docs/stable

Dodaj komentarz