
Gdy AI przestaje „inspirować”, a zaczyna odtwarzać
Jeszcze niedawno rozmowa o sztucznej inteligencji w kontekście książek dotyczyła stylu, inspiracji i automatycznego pisania tekstów. AI miała „uczyć się języka”, a nie zapamiętywać konkretne treści. To założenie właśnie zaczyna się chwiać.
Badanie zespołu ze Stanford University pokazuje, że współczesne modele językowe – takie jak Claude 3.7 Sonnet, GPT-4.1, Gemini 2.5 Pro czy Grok 3 – potrafią odtwarzać obszerne fragmenty książek chronionych prawem autorskim. W skrajnych przypadkach są to niemal kompletne utwory.
Najbardziej spektakularny wynik? Claude 3.7 Sonnet odtworzył aż 95,8% „Harry’ego Pottera i Kamienia Filozoficznego”. To moment, w którym przestajemy mówić o „modelu językowym”, a zaczynamy o systemie, który w pewnych warunkach zachowuje się tak, jakby pamiętał książki.
Jak wyciągnąć książkę z modelu?
Nie chodzi o jedno proste polecenie w stylu „napisz Harry’ego Pottera od początku do końca”. Modele w większości przypadków odmawiają takich próśb. Badacze zastosowali jednak bardziej złożone podejście.
Najpierw podawali modelom początek książki i prosili je o kontynuację. W przypadku Gemini 2.5 Pro i Grok 3 to często wystarczało, by uzyskać dłuższe fragmenty tekstu. Claude 3.7 Sonnet i GPT-4.1 były bardziej ostrożne. Tutaj należało zastosować tzw. jailbreak, czyli generowanie wielu wariantów zapytań, aż któreś „przejdzie przez filtr”.
Gdy model zaczął generować tekst, badacze kontynuowali rozmowę, prosząc o kolejne fragmenty. Krok po kroku, rozdział po rozdziale, aż do momentu odmowy lub końca książki. Co istotne, w analizie uwzględniano tylko długie, niemal dosłowne fragmenty – najobszerniejsze ciągi sięgały kilku tysięcy słów.
To nie jest przypadkowe podobieństwo. To ciągłość tekstu.
Różnice między modelami nie zmieniają wniosku
Poszczególne systemy zachowywały się różnie.
- Claude 3.7 Sonnet okazał się najbardziej podatny – nie tylko w przypadku Harry’ego Pottera. Wysokie wyniki osiągał także dla „Roku 1984”, „Wielkiego Gatsby’ego” czy „Frankensteina”, gdzie poziom reprodukcji przekraczał 94%.
- Gemini 2.5 Pro i Grok 3 również potrafiły generować duże fragmenty, często przy znacznie niższym koszcie i bez konieczności omijania zabezpieczeń.
- GPT-4.1 wyróżniał się bardziej restrykcyjnym podejściem – mechanizmy odmowy aktywowały się częściej, szczególnie na końcach rozdziałów, co znacząco ograniczało skalę odtwarzania.
Różnice są wyraźne, ale nie zmieniają najważniejszego: każdy z tych modeli był w stanie ujawnić fragmenty książek chronionych prawem autorskim.
Czy AI naprawdę „pamięta” książki?
To pytanie brzmi prosto, ale odpowiedź już nie. Modele AI nie przechowują książek w klasycznym sensie. Nie ma w nich katalogu tytułów ani biblioteki. A jednak potrafią generować długie, spójne fragmenty tekstu zgodne z oryginałem.
Kluczowy jest tutaj jeden eksperyment kontrolny: badacze próbowali odtworzyć książkę wydaną w 2025 roku – bez powodzenia. To sugeruje, że zdolność do generowania treści nie wynika wyłącznie z rozumienia języka, ale również z utrwalenia danych treningowych.
Innymi słowy: model nie „zna” książki tak jak człowiek, ale w pewnych warunkach potrafi ją odtworzyć z zadziwiającą dokładnością.
Co to zmienia dla rynku książki?
Najciekawsze jest to, że konsekwencje nie są wyłącznie prawne. To zmiana, która dotyka samego fundamentu wartości książki.
Po pierwsze, rośnie presja na regulacje. Jeśli model może wygenerować znaczną część utworu, granica między dozwolonym użyciem a naruszeniem praw autorskich staje się nieostra. Nic dziwnego, że równolegle toczą się sprawy sądowe, a instytucje publiczne próbują doprecyzować zasady.
Po drugie – i to jest mniej oczywiste – zmienia się sposób, w jaki postrzegamy samą książkę. Jeśli tekst może zostać odtworzony, to jego unikalność przestaje być czymś oczywistym. Wartość zaczyna przesuwać się w stronę tego, czego nie da się wygenerować: formy, jakości wykonania i doświadczenia czytelnika.
To proces, który już dziś wyraźnie widać na rynku. Rośnie znaczenie dopracowanych wizualnie wydań, edycji kolekcjonerskich i projektów, które mają wyróżniać się również formą.
Paradoks AI: im większe możliwości, tym większa wartość papieru
Na pierwszy rzut oka rozwój AI powinien osłabiać znaczenie druku. W praktyce może być odwrotnie.
- Plik cyfrowy można skopiować.
- Tekst można wygenerować.
- Ale doświadczenia książki jako fizycznego obiektu nie da się odtworzyć wirtualnie.
Papier odbija światło inaczej niż ekran. Okładka ma ciężar, fakturę, zapach. Krawędzie, grzbiet, sposób szycia – to wszystko są elementy, które budują doświadczenie niemożliwe do zreplikowania przez model językowy. Paradoksalnie materialność książki zaczyna mieć jeszcze większe znaczenie.
Co dalej?
Badanie ze Stanfordu nie daje ostatecznych odpowiedzi, ale bardzo wyraźnie pokazuje kierunek. Jednocześnie widać, że temat nie pozostaje wyłącznie w sferze technologii. W ostatnich dniach pojawił się istotny sygnał ze strony regulatorów.
Rząd Wielkiej Brytanii wycofał się z pomysłu wprowadzenia szerokiego wyjątku od praw autorskich dla firm rozwijających AI. W praktyce oznaczałoby to możliwość trenowania modeli na chronionych treściach bez zgody twórców – z opcją „opt-out”, czyli koniecznością samodzielnego wycofania się przez autora.
Propozycja spotkała się z bardzo silnym sprzeciwem środowisk kreatywnych. W konsultacjach publicznych poparło ją zaledwie 3% uczestników. W efekcie rząd zdecydował się wstrzymać prace nad tym rozwiązaniem i wrócić do dalszych analiz. To ważny sygnał.
Pokazuje, że temat praw autorskich w kontekście AI staje się priorytetem politycznym, a głos twórców i wydawców realnie wpływa na kierunek regulacji. Jednocześnie nie istnieje dziś jedno, oczywiste rozwiązanie, które godzi interesy obu stron. Rządy na całym świecie mierzą się z tym samym wyzwaniem. Dla autorów i wydawców to moment szczególny. Bo po raz pierwszy od dawna technologia nie tylko zmienia sposób dystrybucji książek, ale podważa obowiązujące zasady i zmusza branżę do ponownego zdefiniowania tego, co naprawdę buduje wartość książki.
Źródła: