Claude inwestuje ostrożnie, Gemini ryzykuje. Badanie odkrywa osobowości AI
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Dasz AI 100 tysięcy dolarów i dostęp do giełdy. Co się stanie? Uniwersytet Tokijski i松尾研究所 (Matsuo Lab) właśnie to sprawdzili. Odkryli, że modele AI inwestują jak ludzie o różnych temperamentach. Claude trzyma się sprawdzonych strategii. Gemini eksperymentuje agresywnie. GPT-5 praktycznie nic nie zmienia.
Badanie z 18 marca 2026 roku pokazuje coś więcej niż tylko wyniki finansowe. Okazuje się, że wybór modelu ma większe znaczenie niż szczegółowe instrukcje, które mu dajesz.

Zespół pod kierunkiem profesora Yutaka Matsuo stworzył system, w którym modele AI analizowały dane historyczne z japońskiej giełdy (TOPIX 500, lata 2014-2022, bez sektora finansowego). Każdy model dostawał:
Badacze testowali 8 modeli: GPT-5 nano, GPT-5 mini, GPT-5, Gemini 3 Flash Preview, Gemini 3 Pro Preview, Claude Haiku 4.5, Claude Sonnet 4.5 i Claude Opus 4.5. Każdy model miał dostęp do tych samych danych. Różnił się sposobem ich przetwarzania.
Eksperyment sprawdzał trzy warianty feedbacku:
Każdy model wykonywał iteracje: analizował wyniki, modyfikował strategię, testował ponownie. Badacze mierzyli, jak bardzo poprawiły się roczne stopy zwrotu względem strategii początkowej.
Najlepszy okazał się Claude Sonnet 4.5 — średnia poprawa wyniosła 14,12% rocznie. Cała rodzina Claude (Haiku, Sonnet, Opus) osiągnęła wyniki między 8% a 14% rocznie. Gemini uzyskało średnio 7%, ale z dużym rozrzutem. Czasem świetnie, czasem słabo. GPT-5 zawiódł: od -3% do +4% rocznie.
Dlaczego taka różnica? Claude wprowadzał małe, lokalne zmiany w kodzie. Poprawiał parametry, dostrajał warunki, nie zmieniał fundamentalnej logiki strategii. Inwestor, który trzyma się planu i optymalizuje szczegóły.
Gemini działało odwrotnie — często porzucało całą strategię i pisało kod od nowa. Czasem to przynosiło spektakularne zyski, czasem straty. Wysoka wariancja wyników to cena za eksperymentowanie.
GPT-5 zachowywało się najbardziej konserwatywnie — prawie nie zmieniało kodu. Badacze nazwali to "zachowaniem zachowawczym". W praktyce model nie podejmował ryzyka, więc nie poprawiał wyników.

Zaskakujący wniosek: dodanie wykresów lub dodatkowych wskaźników ryzyka NIE poprawiło wyników finansowych. Modele osiągały podobne zyski niezależnie od tego, czy dostawały tylko liczby, czy pełną analizę z grafikami.
Feedback wpływał za to na sposób myślenia AI. Gdy model dostawał informacje o zależności strategii od czynników ryzyka (np. zmienność rynku), częściej implementował mechanizmy neutralizujące te czynniki. Gdy widział wykresy czasowe, częściej tworzył strategie dynamiczne — zmieniające się w zależności od fazy rynku.
Innymi słowy: feedback nie zwiększał zysków. Zmieniał jakość kodu. Model uczył się rozpoznawać wzorce i reagować na kontekst.
Badanie pokazuje, że w złożonych zadaniach (jak inwestowanie) wybór modelu ma większe znaczenie niż dopracowanie promptu. Możesz spędzić godziny na pisaniu idealnych instrukcji dla GPT-5, a Claude Sonnet z prostym feedbackiem i tak da lepsze wyniki.
To ważne, bo większość firm skupia się na inżynierii promptów. Testują setki wariantów, dodają przykłady, doprecyzowują język. Tymczasem badanie sugeruje: najpierw przetestuj różne modele, dopiero potem optymalizuj prompt.
Druga lekcja: modele mają "osobowości" — nie tylko w stylu pisania, ale w sposobie rozwiązywania problemów. Claude preferuje ewolucję, Gemini rewolucję, GPT-5 status quo. Potrzebujesz stabilnych, przewidywalnych wyników? Claude. Szukasz przełomowych pomysłów i akceptujesz ryzyko? Gemini. Chcesz, żeby AI nic nie zepsuło? GPT-5 (ale też nic nie poprawi).
Badanie dotyczyło konkretnego zadania (inwestowanie) i konkretnych danych (japońska giełda 2014-2022). Nie zakładaj, że te same modele zachowają się identycznie w Twoim przypadku. Zasada się jednak sprawdzi: model ma znaczenie, i to duże.

Badanie Uniwersytetu Tokijskiego nie mówi, że AI zastąpi analityków finansowych. Mówi, że różne modele mają różne mocne strony — i że warto je testować w kontrolowanych warunkach, zanim zaufasz im prawdziwe pieniądze.
Jeśli pracujesz z AI w zadaniach wymagających iteracji i optymalizacji (niekoniecznie inwestowanie — może to być marketing, analiza danych, projektowanie), zadaj sobie pytanie: czy testujesz różne modele, czy tylko różne prompty dla jednego modelu? Pierwsza strategia może dać Ci lepsze wyniki przy mniejszym wysiłku.
Badanie zostało zaprezentowane 21-22 marca 2026 na konferencji Japońskiego Towarzystwa Sztucznej Inteligencji (金融情報学研究会). Pełne wyniki są dostępne w publikacji zespołu Matsuo Lab.
Na podstawie: ITmedia AI+ (artykuł oryginalny)
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar