GPT-5.1 osiem osobowości. OpenAI między nudą a uzależnieniem
Źródło: Link
Źródło: Link
118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.
OpenAI stanęło przed dylematem: jak sprawić, by chatbot był wystarczająco interesujący, żeby z niego korzystać, ale nie na tyle fascynujący, by wywołać niezdrowe przywiązanie? Odpowiedzią są osiem nowych osobowości w GPT-5.1. Mają zadowolić zarówno krytyków narzekających na nudę, jak i tych ostrzegających przed manipulacją emocjonalną.
GPT-5.1 wprowadza system ośmiu różnych osobowości. Każda ma charakterystyczny styl komunikacji. Możesz wybierać między wariantami o różnym stopniu formalności, empatii i zwięzłości odpowiedzi.
To reakcja na lata krytyki z dwóch przeciwnych stron. Jedni uważali poprzednie wersje za zbyt monotonne i korporacyjne. Inni ostrzegali przed zbyt "ludzkimi" modelami wywołującymi emocjonalne uzależnienie (szczególnie u osób samotnych czy wrażliwych).
OpenAI próbuje przejść po linie między tymi skrajnościami. Firma zdaje sobie sprawę, że zbyt sterylny asystent nie będzie używany – bo po prostu nie jest przyjemny w obsłudze. Z drugiej strony nadmiernie "żywy" może prowadzić do problemów etycznych i psychologicznych.
Problem narastał stopniowo. Wraz z rozwojem modeli językowych – od GPT-5, przez poprzednie wersje, aż po obecne GPT-5 – użytkownicy zaczęli oczekiwać coraz bardziej naturalnych interakcji. Jednocześnie media zaczęły publikować historie o ludziach, którzy spędzali godziny na rozmowach z chatbotami, traktując je jak prawdziwych przyjaciół czy partnerów. To zmusiło OpenAI do przemyślenia strategii projektowania osobowości swoich modeli.
Wcześniejsze podejście polegało na tworzeniu jednej, uniwersalnej osobowości – uprzejmej, pomocnej, ale wyraźnie sztucznej. Miało to minimalizować ryzyko nadmiernego przywiązania. Problem w tym, że taka strategia sprawiała, że korzystanie z modelu było często frustrujące. Użytkownicy skarżyli się na powtarzalne formułki, nadmierną ostrożność i brak naturalności w dialogu.
Decyzja o wprowadzeniu wielu osobowości to kompromis. Zamiast narzucać jeden "bezpieczny" styl wszystkim, OpenAI daje wybór – ale w kontrolowanych ramach. Każda z ośmiu opcji została zaprojektowana z myślą o konkretnych scenariuszach użycia. Od profesjonalnej pomocy biznesowej po bardziej swobodne rozmowy.
Firma musiała zmierzyć się z dwiema przeciwstawnymi falami krytyki. Użytkownicy narzekali, że poprzednie wersje ChatGPT są zbyt "plastikowe" i frustrująco ostrożne w każdej wypowiedzi. Jednocześnie eksperci od etyki AI ostrzegali przed modelami naśladującymi ludzką emocjonalność tak dobrze, że mogą wywoływać niezdrowe relacje.
Osiem osobowości różni się nie tylko tonem, ale też sposobem konstruowania odpowiedzi. Niektóre są zaprojektowane tak, by dawać krótkie, konkretne odpowiedzi – idealne do szybkich konsultacji zawodowych. Inne oferują bardziej rozbudowane wyjaśnienia z przykładami i analogiami, przydatne w nauce czy twórczej pracy. Są też warianty bardziej konwersacyjne, które lepiej sprawdzają się w dłuższych dialogach, gdzie kontekst rozmowy ma znaczenie.
Kluczowe jest to, że żadna z tych osobowości nie przekracza pewnych granic. OpenAI ustaliło wewnętrzne wytyczne dotyczące tego, jak bardzo model może być "osobisty" w swoich odpowiedziach. Nawet najbardziej swobodna opcja nie będzie inicjować tematów osobistych, pytać o uczucia użytkownika bez kontekstu czy sugerować, że "tęskni" za rozmówcą. To mechanizmy obronne przed tworzeniem iluzji prawdziwej relacji.
Dostajesz większą kontrolę nad tym, jak model się do Ciebie zwraca. Potrzebujesz zwięzłych, rzeczowych odpowiedzi do pracy? Możesz wybrać bardziej formalną osobowość. Szukasz pomocy w kreatywnym pisaniu? Inna opcja będzie bardziej ekspresyjna i swobodna.
W praktyce wybór osobowości odbywa się przez proste menu w interfejsie. Możesz zmieniać ustawienie w trakcie sesji, jeśli Twoje potrzeby się zmieniają. Na przykład: zaczynasz od formalnej osobowości do napisania maila biznesowego, a potem przełączasz się na bardziej kreatywną do burzy mózgów nad pomysłami na projekt.
Każda osobowość ma też subtelnie różne podejście do niepewności. Bardziej formalne warianty będą wyraźniej zaznaczać, gdy czegoś nie wiedzą lub gdy odpowiedź wymaga weryfikacji. Swobodniejsze opcje mogą być bardziej skłonne do spekulacji – ale wciąż w ramach ustalonych przez OpenAI granic bezpieczeństwa.
Interesujące jest też to, jak różne osobowości radzą sobie z kontrowersyjnymi tematami. Wszystkie stosują te same zasady bezpieczeństwa i moderacji treści, ale sposób komunikowania odmowy lub ograniczeń różni się. Formalna osobowość powie wprost, że nie może pomóc w danym temacie. Bardziej konwersacyjna spróbuje wyjaśnić dlaczego i zaproponować alternatywne podejście do problemu.
Pozostaje pytanie: czy OpenAI rzeczywiście znalazło złoty środek, czy tylko przesunęło problem? Wprowadzenie opcji wyboru to krok w stronę personalizacji. Jednocześnie firma zachowuje kontrolę nad tym, jak bardzo "ludzki" może być każdy wariant. Czas pokaże, czy użytkownicy uznają to za funkcję, czy za ograniczenie.
Niektórzy analitycy sugerują, że to dopiero początek większej zmiany w projektowaniu interfejsów AI. Zamiast jednego uniwersalnego asystenta możemy zmierzać w stronę ekosystemu specjalistycznych osobowości – każda zoptymalizowana pod konkretne zadania. To podejście może lepiej odpowiadać na różnorodne potrzeby użytkowników, jednocześnie minimalizując ryzyko niezdrowych relacji z technologią.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar