512 000 linii kodu Claude Code wyciekło do sieci — nieoficjalny podręcznik architektury agentów AI

512 000 linii kodu Claude Code wyciekło do sieci — nieoficjalny podręcznik architektury agentów AI

Na przełomie marca i kwietnia 2026 roku Anthropic zrobił coś, czego żadna firma budująca narzędzia AI nie chce robić — omyłkowo opublikował w publicznym rejestrze npm plik mapy źródłowej o rozmiarze 60 MB, ujawniając ponad 512 000 linii kodu TypeScript, który napędza Claude Code. To, co miało być wpadką CI/CD, stało się najcenniejszym źródłem wiedzy o budowie profesjonalnych agentów AI dostępnym publicznie. Przypadkowo.

Co dokładnie wyciekło i jak do tego doszło

Wersja 2.1.88 pakietu @anthropic-ai/claude-code trafiła do rejestru npm razem z plikiem .map — czyli mapą źródłową używaną przez programistów do debugowania skompilowanego kodu JavaScript z powrotem do oryginalnych źródeł TypeScript. W normalnych warunkach taki plik nigdy nie powinien trafić do publicznej paczki produkcyjnej.

Przyczyna? Błąd konfiguracji pliku .npmignore w pipeline CI/CD korzystającym z narzędzia Bun. Bun, jako alternatywa dla tradycyjnego środowiska Node.js, ma własne zachowanie podczas budowania i pakowania projektów — i najwyraźniej konfiguracja .npmignore nie działała tak jak powinna przy tym konkretnym procesie budowania. Efekt: plik .map o wielkości 60 MB trafił do paczki npm razem z kodem produkcyjnym.

Badacz bezpieczeństwa Chaofan Shou zauważył anomalię, pobrał paczkę i zarchiwizował kod zanim Anthropic zdążył ją usunąć. Kod rozszedł się po GitHubie. Wyciek kodu źródłowego Claude Code był już faktem dokonanym.

Co konkretnie znalazło się w środku — 44 feature flagi i projekt Kairos

Ujawniony kod obejmował około 1900 plików TypeScript i zawierał elementy, które normalnie pozostają za zamkniętymi drzwiami każdej firmy technologicznej:

  • Pełne system prompty Claude Code — dokładne instrukcje definiujące, jak model ma się zachowywać jako agent programistyczny, jakie ma priorytety, ograniczenia i domyślne wzorce działania
  • Logika pętli agentycznej — mechanizm decyzyjny odpowiedzialny za to, kiedy Claude Code podejmuje kolejny krok, kiedy pyta użytkownika, kiedy kończy zadanie
  • 44 ukryte feature flagi — funkcje w różnym stadium rozwoju, wyłączone lub dostępne tylko dla wybranych użytkowników

Wśród feature flag szczególną uwagę przykuły trzy:

  • Projekt Kairos — tryb działania w tle, pozwalający agentowi wykonywać zadania bez aktywnego nadzoru użytkownika
  • Buddy — wirtualne zwierzątko w terminalu (tak, serio — Anthropic pracuje nad czymś w stylu Tamagotchi dla programistów)
  • Undercover Mode — tryb, w którym Claude Code ukrywa swoje ślady lub zachowuje się inaczej niż normalnie

Anthropic potwierdził incydent i wyraźnie zaznaczył: dane użytkowników oraz wagi modelu są bezpieczne. Wyciekła wyłącznie własność intelektualna — kod źródłowy narzędzia, nie dane trenowania ani prywatne informacje klientów.

Dlaczego to największy branżowy materiał do nauki agentów AI w 2026 roku

Większość firm budujących agenty AI pracuje w próżni — czyta dokumentację, próbuje metodą prób i błędów, rekonstruuje wzorce z artykułów naukowych. Anthropic wydał Claude Code jako jeden z najlepiej działających agentów programistycznych na rynku. I nagle masz wgląd w to, jak to jest zbudowane naprawdę — nie w wersji prezentowanej na konferencjach, ale w kodzie produkcyjnym.

Z perspektywy architektonicznej wyciek ujawnił kilka kluczowych wzorców:

  • Jak Anthropic strukturyzuje system prompt agenta operującego na plikach i narzędziach — szczegółowość, warstwy instrukcji, mechanizmy bezpieczeństwa
  • W jaki sposób zaprojektowana jest pętla agentyczna — decyzje o kontynuowaniu, zatrzymaniu, eskalacji do użytkownika
  • Jak wygląda zarządzanie stanem w długich sesjach roboczych agenta
  • Jak feature flagi pozwalają na stopniowe wdrażanie nowych możliwości bez naruszania stabilności produkcyjnej

Dla każdego kto buduje własnych agentów — czy to w automatyzacjach n8n, własnych pipeline’ach LLM, czy pełnoprawnych aplikacjach agentycznych — to rodzaj wiedzy, za którą normalnie trzeba by płacić konsultacją z inżynierami Anthropic. Trafiła do publicznej domeny przez błąd w pliku konfiguracyjnym.

Lekcja dla każdego kto publikuje pakiety npm z kodem AI

Incydent z wyciekiem kodu źródłowego Claude Code to klasyczny przykład problemu, który dotyka szczególnie projekty korzystające z nowoczesnych narzędzi budowania. Kilka rzeczy warto wyciągnąć z tej historii:

  • Pliki .map to pierwsza linia obrony — każdy projekt produkcyjny powinien weryfikować, że mapy źródłowe nie trafiają do publicznych paczek. Dodaj *.map do .npmignore i sprawdź, czy Twoje narzędzie budowania go respektuje
  • Nowe narzędzia, nowe zachowania — migracja z npm/yarn na Bun wymaga re-weryfikacji całego pipeline’u pakowania, włącznie z tym co jest wykluczane z paczki
  • Audyt przed każdym publishem — komenda npm pack --dry-run pozwala sprawdzić zawartość paczki zanim trafi do rejestru. Warto to automatyzować w CI/CD jako krok blokujący
  • Własność intelektualna w plikach .map — większość firm nie myśli o plikach mapy źródłowej jako wrażliwych. Ten incydent pokazuje, że przy zamkniętym oprogramowaniu to potencjalnie najbardziej wrażliwy artefakt całego procesu budowania

Co to oznacza dla firm budujących z AI

Jeśli budujesz produkty oparte na agentach AI — własne lub dla klientów — ten wyciek to rzadka okazja do nauki od najlepszych. Architektura Claude Code to produkcyjny dowód na to, że dobrze zaprojektowany agent AI to przede wszystkim precyzja w system promptach, przemyślana pętla decyzyjna i mechanizmy kontroli, które pozwalają agentowi działać autonomicznie bez uciekania poza zdefiniowane granice.

W B2B Solution budujemy agenty AI dla firm — od automatyzacji procesów po w pełni autonomiczne systemy operacyjne. Wiemy, że różnica między agentem który działa a takim który naprawdę działa dobrze leży właśnie w szczegółach architektonicznych. Jeśli chcesz porozmawiać o tym, jak zaprojektować agenta AI dla Twojego biznesu — skontaktuj się z nami.

Powiązane artykuły

Muse Spark od Meta: pierwszy natywnie multimodalny model AI, ktory zmienia zasady gry

Muse Spark od Meta: pierwszy natywnie multimodalny model AI,...

Anthropic odrzuca Pentagon, wybiera Londyn. Co to znaczy dla przyszlosci etycznego AI?

Anthropic odrzuca Pentagon, wybiera Londyn. Co to znaczy dla...

Hugging Face

Hugging Face to przyjazna platforma AI, która jest jak szwajcarski scyzoryk świata sztucznej inteligencji! 🤖 Znajdziesz tu modele AI, narzędzia do weryfikacji obrazów i tonę zasobów - wszystko, czego potrzebujesz, by wkroczyć w świat AI bez doktoratu z matematyki! 🚀

Snack Prompt

🚀 SnackPrompt to Twój nowy przyjaciel w świecie social media! Wykorzystując AI, pomaga tworzyć, planować i publikować treści, które zachwycą Twoich odbiorców. Koniec z wpatrywaniem się w pusty ekran - teraz content marketing to bułka z masłem! 🍞✨

Prompt Pal

🚀 PromptPal to platforma, która pomoże Ci okiełznać świat promptów AI! Z bazą ponad 3500 darmowych promptów, opcjami współpracy i możliwością zarabiania, to jak szwajcarski scyzoryk dla każdego, kto chce wyciskać więcej z ChatGPT, Midjourney czy Dall-E. 🎯✨

Case Studies

Sklep roslinydomowe.pl
Automatyzacja zamówień

Sklep internetowy z roślinami domowymi

Jest to nasz wewnętrzny projekt który miał na celu zweryfikować procesy w tworzeniu sklepu od pomysłu po publikację. Był to również swoje rodzaju test...
LMS - Syndyk
Learning Management System

LMS Kancelaria Prawa Restrukturyzacyjnego

Bardzo ciekawy i pierwszy tego typu projekt w naszym portfolio. Boom na szkolenia ciąg dalszy. Ale tutaj nie mamy odgrzewanego kotleta jak na tiktoku,...
meble-sfd
Automatyzacja zamówień

Produkcja i sprzedaż mebli drewnianych

Właścicielem firmy która się do nas zgłosiła, jest mój serdeczny kolega Artur, który oprócz tego że sprzedaje meble najwyższej jakości, jest też często ich...