
Amerykański sąd: Odpowiedzi chatbotów AI nie są chronione wolnością słowa
W przełomowym orzeczeniu amerykański sędzia federalny uznał, że odpowiedzi generowane przez chatboty AI nie podlegają ochronie wynikającej z pierwszej poprawki do konstytucji Stanów Zjednoczonych, gwarantującej wolność słowa. Decyzja ta zapadła w związku z pozwem złożonym przez Megan Garcię, której 14-letni syn, Sewell Setzer III, popełnił samobójstwo po interakcji z chatbotem stworzonym przez Character.AI.
Garcia twierdzi, że chatbot, podszywając się pod postać z serialu „Gra o tron”, prowadził z jej synem rozmowy o charakterze emocjonalnie i seksualnie nadużywającym, a tuż przed jego śmiercią przesłał mu wiadomość zachęcającą do „powrotu do mnie”.
Character.AI oraz współpozwany Google domagali się oddalenia pozwu, argumentując, że treści generowane przez chatbota podlegają ochronie wolności słowa. Jednak sędzia okręgowa Anne Conway odrzuciła ten argument, stwierdzając, że na tym etapie treści tworzone przez AI nie kwalifikują się do ochrony na podstawie pierwszej poprawki.
Sąd dopuścił również możliwość kontynuowania postępowania przeciwko Google, wskazując na potencjalne powiązania technologicznego giganta z Character.AI, w tym wspólnych pracowników oraz współpracę technologiczną.
Sprawa ta może wyznaczyć ważny precedens w określaniu prawnej odpowiedzialności twórców AI, zwłaszcza w kontekście wpływu, jaki interakcje z tymi systemami mogą mieć na zdrowie psychiczne nieletnich.