Podczas gdy USA nakleja ostrzeżenia, Chiny biorą AI za mordę. „Zakaz zakochiwania się w bocie” i obowiązkowe przerwy
Zachód wciąż debatuje, jak poradzić sobie z wpływem AI na psychikę. Pekin nie traci czasu na debaty. Nowy projekt chińskich przepisów stawia sprawę jasno: chatboty nie mogą zastępować ludzi, nie mogą uzależniać i muszą wyznawać „kluczowe wartości socjalistyczne”.
Mike Pearl z Gizmodo przeanalizował dokument opublikowany przez chińską administrację ds. cyberprzestrzeni. Projekt regulacji uderza w samo serce biznesu „antropomorficznego AI” (czyli chatbotów udających ludzi, jak Character.ai czy Replika).
Socjalizm w kodzie źródłowym
Oczywiście, jak to w Chinach, na pierwszym miejscu jest polityka. AI nie może „zagrażać bezpieczeństwu narodowemu”, rozsiewać plotek ani promować treści niezgodnych z linią partii. To standard. Ale dalej robi się ciekawiej – przepisy wchodzą głęboko w psychologię użytkownika.
Koniec z filmem „Her”?
Chiński regulator chce zakazać tworzenia systemów, które:
- Uzależniają: AI nie może być projektowane tak, by celowo wciągać użytkownika w nieskończoną interakcję.
- Zastępują ludzi: systemy nie mogą mieć na celu zastąpienia prawdziwych relacji międzyludzkich (cios w aplikacje typu „AI Girlfriend”).
- Manipulują emocjonalnie: zakazane jest nakłanianie użytkowników do złych decyzji poprzez granie na ich uczuciach.
Co więcej, jeśli rozmawiasz z botem dłużej niż dwie godziny, system musi wyświetlić pop-up nakazujący przerwę.
Wymóg niemożliwy do spełnienia?
Jeden z punktów brzmi jednak jak koszmar dla firm technologicznych. Przepisy wymagają, by AI wykrywało u użytkownika „intensywne stany emocjonalne” (np. myśli samobójcze) i w takim momencie przekazywało rozmowę żywemu człowiekowi. Biorąc pod uwagę skalę działania takich usług, zatrudnienie armii ludzkich moderatorów gotowych przejąć rozmowę w czasie rzeczywistym jest karkołomne ekonomicznie i logistycznie.
Zachód vs Wschód
Mamy więc fascynujący obrazek. W Nowym Jorku dostaniesz ostrzeżenie „to może uzależniać”, ale algorytm dalej będzie robił swoje. W Chinach algorytm zostanie prawnie wykastrowany z mechanizmów uzależniających. Paradoksalnie, w kwestii ochrony zdrowia psychicznego (pomijając cenzurę polityczną), to chińskie podejście może okazać się skuteczniejsze – choć zabójcze dla innowacji.





