W czasach, gdy sztuczna inteligencja może doradzić ci, co powiedzieć na pierwszej randce, pomóc z podatkami i wyjaśnić ci sens życia (przynajmniej jego wersję 4.0), warto zatrzymać się na chwilę i zapytać: czy ona na pewno słucha tylko mnie?.
Na to pytanie odpowiedział Sam Altman – CEO OpenAI i twarz ChatGPT – w rozmowie z Theo Vonem, prowadzącym popularny podcast „This Past Weekend”. Altman nie owijał w bawełnę: „Ludzie mówią do ChatGPT najosobiściej, jak tylko się da. Jak do terapeuty. Ale nie mamy jeszcze na to żadnej ochrony prawnej” – przyznał.
I tu pojawia się zgrzyt.
Rozmowa? Tak. Prywatność? Jeszcze nie.
Zaufanie do AI w roli cyfrowego powiernika rośnie – zwłaszcza wśród młodszych użytkowników. Sam Altman podkreślił, że wielu z nich traktuje ChatGPT jak terapeutę, coacha czy doradcę relacji. Problem? Rozmowy z AI nie są objęte żadnym prawnym przywilejem – takim jak tajemnica lekarska czy poufność rozmów z prawnikiem. Jeśli więc pewnego dnia sąd poprosi OpenAI o zapis twojej rozmowy o zdradzie partnera lub kryzysie psychicznym… firma będzie musiała je wydać.
– To bardzo pokręcone. Powinniśmy mieć to samo pojęcie prywatności w rozmowach z AI, co z terapeutą – powiedział Altman. I trudno się z nim nie zgodzić.
Zresztą sam OpenAI już dziś toczy sądowy bój z „The New York Times”, który domaga się zapisów czatów użytkowników. Firma twierdzi, że to „przekroczenie granic”, ale wciąż nie ma żadnej gwarancji, że podobnych spraw nie będzie więcej. Jedyną grupą użytkowników, których rozmowy są bezpieczne, są klienci ChatGPT Enterprise. Reszta? Cóż… można powiedzieć, że to wersja demo prywatności.
AI to nie lekarz. I nie kapłan.
To nie pierwszy raz, gdy technologia wyprzedza prawo – ale tym razem może chodzić o coś więcej niż tylko parę linijek kodu. Altman wskazuje, że jesteśmy w momencie przejściowym, który wymaga nowych ram etycznych i prawnych. Bo choć AI może symulować empatię i udzielać całkiem trafnych rad, nie posiada jeszcze „duszy prawnej” – tej, która broniłaby twojej prywatności w sytuacjach granicznych.
To przypomina trochę czasy, gdy lekarze byli… cyrulikami. Niby leczyli, ale nikt nie dawał ci gwarancji, że nie skończysz z pijawką na czole i tajemnicą rozsianą po całym mieście.
Przyszłość? Pełna znaków zapytania
Altman przyznał, że sam czuje się czasem bezużyteczny wobec AI, kiedy jego własny model GPT-5 odpowiada mu na pytania, których on nie rozumie. Dodał jednak, że jego największą obawą nie jest utrata pracy, ale wpływ AI na zdrowie psychiczne ludzi, którzy coraz częściej „rozmawiają z ChatGPT jak z dziewczyną lub chłopakiem”. I choć mówi to pół-żartem, pół-serio, nie da się ukryć – w tym żarcie jest więcej prawdy, niżbyśmy chcieli.
Nowe czasy, nowe zasady
Czy to znaczy, że powinniśmy porzucić ChatGPT i wrócić do rozmów z kwiatkiem na parapecie? Niekoniecznie. Ale zanim powierzysz AI swój rozwód, depresję albo wstydliwe myśli – upewnij się, że wiesz, kto tak naprawdę słucha.
Jak powiedział sam Altman, „nikt nie wie, co się wydarzy dalej”. Ale jedno jest pewne – jeśli AI ma być naszym cyfrowym powiernikiem, to czas najwyższy dać jej także cyfrowy kodeks etyki.
Póki co – lepiej nie zwierzać się jej z planów na ucieczkę do Brazylii albo ukrywania słodyczy przed dziećmi. Tak na wszelki wypadek.