More

    OpenAI kontra The New York Times: Spór o naruszenie praw autorskich i usuwanie dowodów

    W trwającym sporze prawnym przeciwko OpenAI, The New York Times (NYT) oskarża giganta sztucznej inteligencji o usuwanie danych, które mogłyby stanowić dowód naruszenia praw autorskich. Według NYT, OpenAI „przypadkowo“ usunęło dane związane z treningiem ChatGPT na artykułach prasowych gazety. Sprawa zyskała rozgłos, ponieważ dotyczy fundamentalnych kwestii dotyczących wykorzystania treści chronionych prawem autorskim do trenowania modeli AI.

    OpenAI, odpowiadając na zarzuty, zaprzeczyło, jakoby celowo usuwało dowody. Firma stwierdziła, że dane zostały „przypadkowo nadpisane“ w wyniku zmiany technicznej, której zażądał NYT, rzekomo w celu przyspieszenia wyszukiwania.

    Problemy techniczne czy zaniedbanie?

    NYT twierdzi, że OpenAI przez brak odpowiednich zabezpieczeń uniemożliwiło odtworzenie folderów i nazw plików, co podważa wiarygodność odzyskanych danych. Gazeta sugeruje, że ponowne przeprowadzenie wyszukiwań pochłonie ogrom czasu i zasobów, co spowalnia cały proces sądowy.

    OpenAI ripostuje, zarzucając NYT brak odpowiednich kopii zapasowych oraz błędy w wyszukiwaniu danych. Firma argumentuje, że większość problemów wynikała z niepoprawnego korzystania z dostarczonego narzędzia.

    Szeroki kontekst prawny – sprawa autorów książek

    Nie jest to pierwszy przypadek, gdy OpenAI jest oskarżane o niewłaściwe zarządzanie danymi w kontekście naruszeń praw autorskich. Wcześniej autorzy książek, tacy jak Sarah Silverman, zgłaszali podobne problemy, twierdząc, że OpenAI usunęło kontrowersyjne zestawy danych szkoleniowych. W obu przypadkach pojawia się wątpliwość, czy takie działania były przypadkowe, czy też miały na celu utrudnienie procesu dowodowego.

    Kluczowe aspekty obrony OpenAI

    Obrona OpenAI w sprawie NYT opiera się głównie na argumencie „dozwolonego użytku” (fair use). Firma twierdzi, że wykorzystanie artykułów do treningu AI przynosi korzyści społeczne, a więc mieści się w granicach prawa. Jednak sędzia Ona Wang odrzuciła kluczowy element tej obrony, wskazując, że OpenAI musi udowodnić, że korzyści wynikają bezpośrednio z kopiowania treści NYT, a nie ogólnego wykorzystania AI w dziennikarstwie.

    Decyzja ta znacząco osłabia argumentację OpenAI i zmusza firmę do bardziej szczegółowego uzasadnienia swoich działań. Dodatkowo, jeśli NYT wykaże, że ChatGPT szkodzi ich działalności biznesowej, a jednocześnie nie przynosi korzyści społecznych, OpenAI może przegrać proces, którego rozstrzygnięcie planowane jest na 2025 rok.

    Co dalej?

    Trwające spory prawne pomiędzy OpenAI a NYT oraz autorami książek mogą mieć daleko idące konsekwencje dla całego sektora AI. Decyzje sądów w tych sprawach mogą zdefiniować, jak prawo autorskie będzie stosowane w kontekście szkolenia modeli językowych i innych technologii sztucznej inteligencji.

    Nowe