Tak, by było dobrze - o tworzeniu udanych produktów.
Tak, by było dobrze - o tworzeniu udanych produktów.
Jak przetrwać rewolucję AI? 5 strategii dla Product Managerów w 2025 roku prosto od a16z
W tym odcinku przedstawiamy praktyczne strategie dla Product Managerów, którzy muszą odnaleźć się w gwałtownie zmieniającym się krajobrazie AI. Bazując na ważnym artykule z a16z, omawiamy pięć kluczowych kompetencji, które zadecydują o Twojej skuteczności i wartości na rynku pracy w 2025 roku.
Przeanalizujemy nowe podejścia do odkrywania możliwości produktowych, ustalania cen premium, szybkości wdrażania oraz projektowania z wyraźnym punktem widzenia. Wyjaśnimy też, dlaczego codzienne, odruchowe korzystanie z różnych narzędzi AI staje się fundamentalną umiejętnością każdego Product Managera w erze sztucznej inteligencji.
Niezależnie od tego, czy pracujesz w korporacji czy startupie, ten odcinek wyposaży Cię w konkretne techniki, które pomogą Ci wyprzedzić konkurencję i stać się liderem transformacji AI w Twojej organizacji.
Garść źródeł, którymi się posiłkowaliśmy:
Zachęcamy do subskrybcji naszej listy mailingowej na https://takbybylodobrze.pl/
00:00:01,959 --> 00:00:04,059 [Piotr Durlej]
Dzień dobry, z tej strony Piotr.
00:00:04,059 --> 00:00:05,940 [Michał Krajewski]
A z tej strony Michał.
00:00:05,940 --> 00:00:15,779 [Piotr Durlej]
I dzisiaj witamy się z Wami, żeby pokrótce omówić tak jeden artykulik, który nam wskoczył w radar
00:00:15,779 --> 00:00:19,020 [Piotr Durlej]
i też rozpoczął
00:00:19,020 --> 00:00:25,239 [Piotr Durlej]
intensywniejszą wymianę korespondencji między mną a Michałem, dotyczący
00:00:25,239 --> 00:00:30,739 [Piotr Durlej]
jak-- tego, jak zostać-- stać się ee
00:00:30,739 --> 00:00:31,579 [Piotr Durlej]
nadal-
00:00:31,579 --> 00:00:32,819 [Michał Krajewski]
Niezastąpionym.
00:00:32,819 --> 00:00:34,680 [Piotr Durlej]
Niezastąpionym, nadal niezastąpionym-
00:00:34,680 --> 00:00:36,099 [Michał Krajewski]
Nadal niezastąpionym.
00:00:36,099 --> 00:00:47,259 [Piotr Durlej]
Uwielbiam ten tytuł, ten tytuł linka jest wspaniały, bo tytuł URL linka to jest stay relevant in AI,
nie? Więc wydaje mi się, że
00:00:47,259 --> 00:00:48,919 [Piotr Durlej]
jakby jest punkcik, nie?
00:00:48,919 --> 00:00:52,199 [Michał Krajewski]
Tak. No to jest, to jest artykuł
00:00:52,199 --> 00:01:17,879 [Michał Krajewski]
na Andersen Horowitzu, na ich, na ich blogu i po prostu idealnie się wpisuje w to, co my wszyscy
widzimy na LinkedInie niestety i w innych miejscach. Czyli połączenie AI i obawy ludzi, ludzi przed
AI, że przez to, że powstaną te super modele, staną się oni niepotrzebni, tak? No i oczywiście w
tytule czy w tytule artykułu jest też Product Managers, więc wszystko po prostu-
00:01:17,879 --> 00:01:25,119 [Piotr Durlej]
Wszystko się zgadza. AI, product managers, stay relevant. Dokładnie to.
00:01:25,119 --> 00:01:31,679 [Michał Krajewski]
Pan tutaj opisuje, a niż a Charia opisuje,
00:01:31,679 --> 00:01:39,639 [Michał Krajewski]
w jaki sposób product managerowie powinni zajmować się AI, powinni używać AI, żeby pozostać w grze.
Tak naprawdę.
00:01:39,639 --> 00:01:45,179 [Piotr Durlej]
Pozostać w grze. Miło. Bardzo delikatnie. Mieć, co do gara włożyć.
00:01:45,179 --> 00:02:24,119 [Michał Krajewski]
Mieć, co do gara włożyć. Wszyscy wiemy, że eldorado się skończyło, więc tym bardziej trzeba po
prostu z tym AI'em się pogodzić i używać. Więc tak, tak naprawdę można podsumować to dwoma zdaniami,
co on tu napisał, więc postaramy się też szybko omówić te pięć punktów. Pierwszy punkt to, to jest
przeprowadzenie, żeby przeprowadzać o to wywiady ze swoimi tymi modelami. De facto chodzi o to, żeby
bardzo dobrze poznać te zachowania tych modeli i wykorzystać je w projektowaniu produktów, tak?
Używać je dużo, ale nie w sensie takiej bezrefleksyjnego używania, tylko właśnie sprawdzać ich
00:02:24,119 --> 00:02:54,419 [Michał Krajewski]
granice, sprawdzać, co one robią w dziwnych sytuacjach, gdy coś dziwnego zrobisz, czy coś dziwnego
napiszesz. Jeśli chodzi o LLMy też bardzo ważne jest tutaj, o czym on wspomina, jest przez to, że
dzięki takim działaniom będziesz w stanie lepiej oceniać te modele i budować takie testy ewaluacyjne
tak naprawdę jakości tego. Szukać edge case'ów, szukać różnych sposobów, na jakie te modele mogą się
popsuć i sprawić, że Twój produkt AI-owy będzie totalnie źle, źle działał, nie?
00:02:54,419 --> 00:02:56,539 [Piotr Durlej]
Drugi punkt
00:02:56,539 --> 00:03:07,799 [Piotr Durlej]
jest dla mnie chyba najbardziej ciekawy, najbardziej nietypowy, kontrjański. Jak to by powiedział
chyba Peter Thiel, jeśli dobrze pamiętam.
00:03:07,799 --> 00:03:09,239 [Michał Krajewski]
Bardziej.
00:03:09,239 --> 00:03:13,439 [Piotr Durlej]
Żeby nie uciekać od ekstremalnych
00:03:13,439 --> 00:03:25,499 [Piotr Durlej]
zabaw ceną. Zabaw pricingiem. Dlatego, że no tutaj daje ten przykład dwustu dolarów za konto dla
czata GPT,
00:03:25,499 --> 00:03:35,759 [Piotr Durlej]
które na samym początku było potraktowane jako zabawka, a obecnie jako jakieś szaleństwo, a obecnie
jest używane, jest podstawą dla pewnych,
00:03:35,759 --> 00:03:51,159 [Piotr Durlej]
pewnych biznesów, tak? I jeśli dobrze pamiętam, też sam Altman powiedział, że pricing tego na
dwieście dolarów powstał trochę na zasadzie: "A, uważam, że dwieście dolarów będzie spoko" Jeśli,
jeśli, jeśli dobrze kojarzę anegdotkę.
00:03:51,159 --> 00:04:04,679 [Piotr Durlej]
To pokazuje, że w dzisiejszych czasach ludzie nie wiedzą, jak wyceniać możliwości. Jeszcze się jakby
to jest tak nowe, część rynku. Nie wiemy, jak wycenia się takie AIowe produkty,
00:04:04,679 --> 00:04:21,779 [Piotr Durlej]
jeszcze, więc można naprawdę eksperymentować z cenami, by mieć takie tiery, takie poziomy, które są
bardzo drogie, bo a nóż widelec, dla kogoś Twój produkt rozwiązuje, rozwiązuje naprawdę niesamowicie
ważny problem.
00:04:21,779 --> 00:04:25,779 [Michał Krajewski]
Tak, on tutaj też wspomina o tym, że
00:04:25,779 --> 00:04:50,259 [Michał Krajewski]
warto by zastanowić się, jak wyglądałby taki produkt, który kosztowałby tysiąc dolarów miesięcznie.
I spróbować go zbudować, niekoniecznie za taką kwotę, ale dając takie możliwości ludziom. No i on
też mówi, że to może być jeden z głównych wydatków przyszłości ludzi, tak? Że ludzie będą kupować po
prostu tak drogie oprogramowanie teraz, tak jak płacą na przykład za leasing samochodu. Ciekawy
punkt. Trzeci.
00:04:50,259 --> 00:04:58,359 [Michał Krajewski]
No, oczywiście o fosach. Czyli coś, jakie właściwie fosy powinniśmy tutaj budować, tak? No i on
tutaj pokazuje dwie strony. Jedna strona to jest-
00:04:58,359 --> 00:05:02,159 [Piotr Durlej]
Może przypomnijmy, o co chodzi z fosami, tak? Czyli fosy, czyli takie defensywne.
00:05:02,159 --> 00:05:02,879 [Michał Krajewski]
Wiedzą.
00:05:02,879 --> 00:05:08,719 [Piotr Durlej]
Oczywiście. Wszyscy wiemy, jakby kotangens tangens, więc jak tu-
00:05:08,719 --> 00:06:25,733 [Michał Krajewski]
Fosy to są po prostu sposoby, na które Twój biznes jest w stanie się odróżnić od innego biznesu i
jesteś w stanie obronić swój model biznesowy, obronić swoje, swój, swój rynek i obronić swoje value
proposition, tak? Wiadomo, mieliśmy też odcinek o Network Effects. To jedna z takich klasycznych
fos, gdzie po prostu produkt jest używany przez wiele osób i im więcej osób go używa, tym staje się
on cenniejszy. I to jest taka bardzo potężna fosa, jak na przykład Uber, tak? No i tutaj te fosy w
świecie AI się trochę zmieniają przez to, że po prostu te modele są, zaczynają być do siebie bardzo
podobne i jednak są takie wygładzone, uśrednione, tak? Jak wiemy, jak się je, jak się używa, tak?
One raczej taką opinię starają się pokazać średnio. No i tutaj, podobnie jak Apple i Google operują,
oni bardzo starają się unikać tych takich emocjonalnych tonów w swoich produktach. W marketingu
inaczej, ale jednak w produktach one są raczej takie bardziej wygładzone. No i jego tutaj sugestia
jest taka, że-Użyć właśnie AI, ale użyj też swoich produktów, żeby budować rzeczy, które opierają
się na emocjach, na intensywności. Buduj takie rzeczy, które sprawią, że ludzie będą bardziej
zaangażowani. Dzięki temu, że jest to trochę co innego niż do tej pory-
00:06:25,733 --> 00:06:26,393 [Piotr Durlej]
No i-
00:06:26,393 --> 00:06:27,454 [Michał Krajewski]
Się spotykali, nie?
00:06:27,454 --> 00:06:52,413 [Piotr Durlej]
No i też mega ważna sprawa. Trzeba budować w dzisiejszych czasach bardzo szybko z powodu właśnie
zmiany, zmiany AI. Yyy, tutaj najważniejsze przewagi obecnie to jest zrozumienie tej technologii,
wykorzystanie, wykorzystanie jej, żeby zbudować coś szybko i być pierwszym i potem nie przestawać
biec. Aaa, i ten brak stopu w tym biegnięciu, w tym,
00:06:52,413 --> 00:07:12,993 [Piotr Durlej]
yyy, w tym sprincie. W dzisiejszych czasach, przynajmniej przy budowie takich AI-owych produktów, w
momencie, czy AI Base product, w momencie, kiedy, yyy, no, to już bym powiedział, mleko się rozlało
i ten-- i tylko jest coraz nowsza technologia umożliwiająca coraz więcej. No, nie ma chyba innej
drogi. Czwarty punkt jest
00:07:12,993 --> 00:08:01,933 [Piotr Durlej]
dla mnie taki trochę, trochę, trochę powtórzeniem tego paradygmatu, tego spojrzenia, yyy, o którym
mówimy, że modele językowe są platformami, tak? Czyli, mmm, są jakimś sposobem dostarczania
wartości, yyy, i to, czy użyjesz Clouda, czy użyjesz Groka, czy użyjesz Lamy, czy użyjesz Czata GPT,
czy czegokolwiek tam innego, to tak naprawdę to są tylko różne odcienie. Tak trochę, jak było w
punkcie, jeśli dobrze pamiętam, właśnie tam pierwszym, tak? Czyli możesz zmieniać te odcienie,
możesz sobie z tym eksperymentować i tak patrzeć na te, na te modele. Nie, nie przywiązywać się do
nich, tylko właśnie umieć wybierać między jednym a drugim.
00:08:01,933 --> 00:08:07,933 [Michał Krajewski]
No i ostatni punkt. Punkt piąty. Używanie to tak naprawdę jest też
00:08:07,933 --> 00:08:37,093 [Michał Krajewski]
ton całej tej, całej, całego tego wpisu jest o tym, tak? Musisz dogłębnie zrozumieć te różnice
między modelami i też używać ich dużo, ale używać w taki sposób z refleksją, tak? Refleksyjny.
Umiejętność umieć zrozumieć, co się dzieje. Na przykład, jeśli używasz modeli, które te modele
reasoningowych, to patrzysz, co one robią, jakie sekwencje kroków podejmują, jakie są wyniki, co się
dzieje, w jaki sposób będziesz w stanie najlepiej używać
00:08:37,093 --> 00:08:40,253 [Michał Krajewski]
tych modeli, tak? No i tutaj
00:08:40,253 --> 00:08:44,793 [Michał Krajewski]
to będzie taka część tej intuicji produktowca, tego product sense. Po prostu odruchowe-
00:08:44,793 --> 00:08:45,033 [Piotr Durlej]
Tak.
00:08:45,033 --> 00:08:57,573 [Michał Krajewski]
To używanie tych modeli. Zwłaszcza jak w ostatnim podcaście. Ale też widzimy coraz tego więcej.
Wiele firm zaczyna mówić, że teraz są AI first. No i Ty musisz rozumieć te modele w ten sposób
trochę głębsze niż na zasadzie-
00:08:57,573 --> 00:08:57,893 [Piotr Durlej]
O, tutaj-
00:08:57,893 --> 00:08:58,853 [Michał Krajewski]
Napisałem prompty.
00:08:58,853 --> 00:09:50,073 [Piotr Durlej]
Tu jest lepszy, tutaj będzie lepszy Groq. Do takich do pisania kopii to używam Clouda. Do pisania
kodu najlepszy jest Chat GPT, nie? Żeby mieć te use case'y, wiedzieć gdzie, co jest lepsze, że na
przykład, nie wiem, Cloud jest bardzo ładnie pisze, ale czasami się zdarza mu zbyt często mu się
zdarza pogubić wątki, w momencie, kiedy są dłuższe konwersacje. Yyy, jakby wiedzieć, móc powiedzieć,
móc opowiedzieć coś więcej o tych narzędziach, rozumieć gdzie, jakie pasują. Troszeczkę, trochę mi
to przypomina taką rolę architekta w software developmencie, który jest w stanie przyjść do jakiegoś
konceptu produktu i powiedzieć okej, w tym produkcie użyjemy Reacta, w tym użyjemy PHP. A tutaj to w
ogóle to powinno być email, to powinien być email. Więc-
00:09:50,073 --> 00:10:11,813 [Michał Krajewski]
Trochę też tak jak używanie ogólnie software'u i rozumienie na przykład, jakie to są dobre wzorce
projektowe, jaki jest dobry UX, tak? No, przez to, że używasz wielu aplikacji, wielu systemów
operacyjnych, wielu, wielu rzeczy dotykasz. No to tak samo tutaj w modelach AI niestety musisz- no
nie wiem, czy niestety tak, ale no tak, jeśli używasz
00:10:11,813 --> 00:10:42,833 [Michał Krajewski]
ekosystem Google'a, to próbujesz tam używać Gemini, tak? Jeśli używasz, jeśli na przykład masz jakiś
swój własny system do produktywności, no to starasz się go zbudować na czymś innym niż na przykład
Gemini, żeby zrozumieć, jak Cloud działa, tak? I tak dalej, i tak dalej. No my przynajmniej ja, raz
na jakiś czas właśnie robimy takie podsumowanie sobie modeli ostatnich paru miesięcy i też je
wrzucamy na swoje social media, żeby zobaczyć tak naprawdę, jak te modele się zmieniają. Bo to
będzie się zmieniać i się dalej zmienia-
00:10:42,833 --> 00:10:43,253 [Piotr Durlej]
Będzie non stop-
00:10:43,253 --> 00:10:48,753 [Michał Krajewski]
Tak naprawdę raz na miesiąc, a tak poważnie to raz na trzy miesiące co najmniej, nie?
00:10:48,753 --> 00:11:47,453 [Piotr Durlej]
Ja bym powiedział, że też są-- teraz chyba niedługo będzie-- no zresztą non stop są jakieś rewolucje
i non stop jest jakby wyścig, race to trochę, race to the bottom, moim skromnym zdaniem, od tych
właśnie wielkich providerów, tych większych foundational models, czy jak oni się nazywają. No i
zobaczymy. My, maluczcy, powinniśmy wiedzieć, w którą stronę wieje wiatr i odpowiednio się do tego
ustawić. Wiedzieć gdzie, gdzie co wykorzystać, żeby nie przepłacić. Żeby wiedzieć, gdzie ten mądry
lewar wykorzystać, bo koniec końców modele są narzędziami i jako produktowiec Twoja rola obecnie to
też umiejętne wykorzystanie tych modeli. Odpowiedniego modelu w odpowiednim, w odpowiedniej
sytuacji, bo tego póki co jeszcze modele nie potrafią. I tutaj chyba jest ta nowa job to be done dla
00:11:47,453 --> 00:11:48,713 [Piotr Durlej]
PM.
00:11:48,713 --> 00:11:55,473 [Michał Krajewski]
Tak jest. Dokładnie. Zachęcamy do posłuchania też naszych innych podcastów o AI, bo dużo tego
ostatnio tworzymy.
00:11:55,473 --> 00:11:56,313 [Piotr Durlej]
Ciekawe dlaczego?
00:11:56,313 --> 00:12:01,913 [Michał Krajewski]
Takie są czasy. Więc słuchajcie, używajcie i do usłyszenia następnym razem.
00:12:01,913 --> 00:12:07,333 [Piotr Durlej]
Pozdrawiamy wasi jeszcze białkowi Piotr i Michał.
00:12:07,333 --> 00:12:08,673 [Michał Krajewski]
So far, so far.