AI w Zoom nie współpracuje. Nikt tego nie widzi
Źródło: Link
Źródło: Link
Vivomeal — działający produkt zbudowany na AI. Przykład tego, co wyjdzie po kursie.
Wchodzisz na spotkanie w Zoom. Włączasz transkrypcję na żywo. Dodajesz bota do notatek. W tle działa asystent do wyciągania zadań. To przypomina science fiction sprzed pięciu lat.
Tyle że te pięć, sześć agentów AI pracujących jednocześnie? Często walczą ze sobą. I nikt – ani Ty, ani Twój zespół – nie ma o tym pojęcia.
orkiestrę bez dyrygenta. Każdy muzyk gra swoją partię perfekcyjnie. Nikt nie słucha innych. Efekt?
Kakofonia.
Dokładnie to dzieje się w narzędziach do współpracy. Jeden agent robi transkrypcję. Drugi identyfikuje mówców. Trzeci generuje napisy. Czwarty tworzy podsumowanie. Piąty wyciąga zadania. Szósty analizuje sentyment.
Każdy z nich działa. Ale czy współpracują? Rzadko.
Transkrypcja mówi "Jan Kowalski". System do zadań zapisuje "Speaker 2". Napisy pokazują "Jan Kowalsky". Podsumowanie pomija pół wypowiedzi, bo agent do transkrypcji wziął moment ciszy za koniec zdania.
Dla użytkownika? Chaos. Ale subtelny – taki, który nie rzuca się w oczy od razu.
Firma wdraża nowe narzędzie. Zespół produktowy patrzy na metryki. Wszystko zielone. Adoption rate rośnie. Czas sesji w normie. Liczba aktywnych użytkowników stabilna.
I tu jest pułapka.
Tradycyjne metryki nie pokażą Ci, że:
To nie są błędy techniczne. To problemy orkiestracji. Każdy agent działa zgodnie ze specyfikacją. Razem? Tworzą doświadczenie pełne frustracji.
Analityka mówi: "Feature działa". Użytkownik mówi: "Nie ufam temu".
I tu wkracza research UX. Bo dopiero gdy siądziesz z użytkownikiem i zobaczysz, jak naprawdę korzysta z narzędzia – widzisz prawdziwy obraz.
Przykład z życia: zespół produktowy był przekonany, że ich asystent ai do spotkań działa rewelacyjnie. Metryki pokazywały 85% adoption rate.
Badania jakościowe pokazały coś innego. Użytkownicy włączali bota, bo "tak trzeba". Po spotkaniu? Ignorowali wygenerowane notatki i pisali własne. Wiedząc, że AI pomija kontekst, pomyla osoby i źle zinterpretuje decyzje – woleli poświęcić 20 minut ręcznej pracy niż ryzykować błąd.
85% adoption. 15% faktycznego zaufania.
Bo większość firm podchodzi do AI jak do klocków LEGO. Bierzesz model do transkrypcji. Dokładasz model do analizy sentymentu. Wrzucasz jeszcze LLM do podsumowań. I zakładasz, że skoro każdy z nich działa osobno, to razem zadziałają jeszcze lepiej.
Nie działają.
LLM – czyli "mózg" za ChatGPT czy podobnymi narzędziami – potrzebuje kontekstu. Jeśli dostanie transkrypcję z błędami, wygeneruje podsumowanie z błędami. Jeśli system do identyfikacji mówców pomyli osoby, zadania trafią do złych ludzi.
Użytkownik? Widzi tylko efekt końcowy. Nie wie, który agent zawiódł. Wie tylko, że "to AI nie działa".
Przestań patrzeć tylko na liczby. Zacznij patrzeć na ludzi.
Research UX to nie luksus. To konieczność – zwłaszcza gdy wdrażasz kilka agentów AI jednocześnie. Bo tylko obserwując użytkownika w akcji zobaczysz:
Przykład: firma zauważyła, że użytkownicy ignorują automatyczne podsumowania spotkań. Badania pokazały dlaczego – bot generował podsumowanie zanim spotkanie się skończyło. Ludzie podejmowali kluczowe decyzje w ostatnich 5 minutach.
Bot ich nie widział.
Rozwiązanie? Proste. Opóźnij generowanie o 2 minuty. Adoption rate podsumowań wzrosło z 20% do 78%.
Dwa minuty. Jeden insight z badań UX.
Każdy agent może grać perfekcyjnie. Jeśli nie słuchają siebie nawzajem, użytkownik dostaje chaos.
Metryki pokażą Ci, że system działa. Research UX pokaże Ci, czy ludzie mu ufają. I czy naprawdę z niego korzystają – czy tylko udają, bo muszą.
Bo różnica między "działa" a "działa dla użytkownika" to przepaść. I jedyny sposób, by ją zobaczyć?
Przestać patrzeć na dashboardy. Zacząć patrzeć na ludzi.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar