Jeden autor, 113 prac o AI w rok. Naukowcy biją na alarm
Źródło: Link
Źródło: Link
90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.
Jedna osoba. 113 artykułów naukowych o sztucznej inteligencji. Jeden rok.
To przypomina niemożliwe? Dlatego środowisko akademickie jest w szoku. 89 z tych prac zostanie zaprezentowanych w tym tygodniu na jednej z najważniejszych konferencji AI na świecie. Eksperci nazywają to wprost: katastrofą.
Problem nie w tym, że ktoś jest wyjątkowo produktywny. Problem w tym, że te prace mogły w ogóle nie zostać napisane przez człowieka.
"Slop" – tak naukowcy nazywają teksty generowane przez AI, które zaśmiecają publikacje naukowe. To nie artykuły pisane z pomocą sztucznej inteligencji. To teksty wygenerowane przez AI. Często bez grama merytorycznej wartości.
piszesz pracę magisterską. Zamiast miesięcy badań włączasz ChatGPT, klikasz "generuj" i masz gotowy tekst w 10 minut. Brzmi kusząco? Dla niektórych "naukowców" to już standard.
Eksperci nie owijają w bawełnę: to bałagan.
Jeden z badaczy, który analizował te 113 publikacji, użył słowa "disaster" – katastrofa. Nie "problem". Nie "wyzwanie". Katastrofa.
Konferencje naukowe działają na zasadzie peer review – recenzji koleżeńskiej. Inni naukowcy czytają zgłoszone prace i decydują, które są warte zaprezentowania.
System miał gwarantować jakość.
Tylko że gdy na jedną konferencję wpływają tysiące zgłoszeń, a recenzenci mają po kilka dni na ocenę każdej pracy, zaczynają się schody. Szczególnie gdy AI nauczyło się generować teksty, które wyglądają naukowo.
Prawidłowa terminologia? Jest. Struktura badawcza? Jest. Bibliografia? Oczywiście. Tyle że pod spodem nie ma rzeczywistych badań, eksperymentów ani oryginalnych wniosków.
Pięknie opakowany prezent z pustym pudełkiem w środku.
Możesz pomyśleć: "No dobra, ale co mnie to obchodzi? Nie jestem naukowcem".
Obchodzi. I to bardzo.
Te publikacje trafiają do baz danych naukowych. Inne badania się na nie powołują. Firmy technologiczne czytają je, tworząc swoje produkty. Dziennikarze cytują je w artykułach. Politycy opierają na nich decyzje o regulacjach AI.
Jeśli fundamenty są zgniłe, cała konstrukcja się chwieje.
Poza tym – te "prace" zaśmiecają system. Prawdziwi badacze, którzy spędzają miesiące na eksperymentach, muszą konkurować o miejsce na konferencji z kimś, kto wygenerował 113 artykułów w rok.
Jak próba dostania się do finału Masterchefa, gdy połowa uczestników przynosi dania z McDonalda w pudełkach.
Ironia jest bolesna. Badania nad sztuczną inteligencją są zaśmiecane przez sztuczną inteligencję.
Modele językowe typu GPT-5 czy Claude potrafią wygenerować tekst, który brzmi przekonująco. Dodaj kilka wykresów, spreparowane dane (albo prawdziwe, źle zinterpretowane) i gotowe.
Problem narasta od momentu, gdy ChatGPT stał się publicznie dostępny. Nagle każdy z dostępem do internetu może "napisać" artykuł naukowy w 15 minut.
Niektórzy nazywają to demokratyzacją nauki. Inni – końcem jakości akademickiej.
I tu pojawia się paradoks: narzędzia AI mogą wspierać badania – analizować dane, wykrywać wzorce, przyspieszać obliczenia. Gdy zastępują myślenie, stają się trucizną.
Reakcje są różne. Niektóre konferencje wprowadzają zakaz używania AI do pisania artykułów. Inne wymagają ujawnienia, jeśli autor korzystał z narzędzi AI.
Tylko jak to sprawdzić?
Detektory AI (programy wykrywające teksty generowane przez sztuczną inteligencję) nie są doskonałe. Często mylą się, oznaczając prawdziwe teksty ludzkie jako AI. Albo przepuszczają wygenerowane.
To wyścig zbrojeń. AI generuje lepsze teksty. Detektory próbują je rozpoznać. AI uczy się, jak oszukać detektory. I tak w kółko.
Niektórzy proponują radykalne rozwiązanie: wrócić do mniejszych konferencji, gdzie recenzenci znają autorów osobiście. Tyle że to oznaczałoby koniec globalnej wymiany wiedzy w obecnej skali.
Jeśli nie opanujemy tego problemu, czeka nas scenariusz, w którym większość "badań" nad AI to szum wygenerowany przez AI.
Prawdziwi naukowcy przestaną publikować, bo system straci wiarygodność. Firmy będą musiały tworzyć własne, zamknięte laboratoria badawcze. Wiedza przestanie być otwarta.
Albo – bardziej optymistyczny wariant – nauczymy się odróżniać wartościowe badania od śmieci. Może pojawią się nowe standardy weryfikacji. Może zaczniemy wymagać dostępu do surowych danych i kodu źródłowego przy każdej publikacji.
Może konferencje zaczną nagradzać głębię zamiast ilości.
Bo problem nie jest w AI. Problem jest w tym, jak z niego korzystamy. I w systemie, który nagradza produkcję zamiast jakości.
Autor 113 artykułów w rok to nie geniusz. To symptom chorego systemu.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar