Mastodon
Zdjęcie okładkowe wpisu Podczas gdy USA nakleja ostrzeżenia, Chiny biorą AI za mordę. „Zakaz zakochiwania się w bocie” i obowiązkowe przerwy

Podczas gdy USA nakleja ostrzeżenia, Chiny biorą AI za mordę. „Zakaz zakochiwania się w bocie” i obowiązkowe przerwy

0
Dodane: 4 godziny temu

Zachód wciąż debatuje, jak poradzić sobie z wpływem AI na psychikę. Pekin nie traci czasu na debaty. Nowy projekt chińskich przepisów stawia sprawę jasno: chatboty nie mogą zastępować ludzi, nie mogą uzależniać i muszą wyznawać „kluczowe wartości socjalistyczne”.

Mike Pearl z Gizmodo przeanalizował dokument opublikowany przez chińską administrację ds. cyberprzestrzeni. Projekt regulacji uderza w samo serce biznesu „antropomorficznego AI” (czyli chatbotów udających ludzi, jak Character.ai czy Replika).

Socjalizm w kodzie źródłowym

Oczywiście, jak to w Chinach, na pierwszym miejscu jest polityka. AI nie może „zagrażać bezpieczeństwu narodowemu”, rozsiewać plotek ani promować treści niezgodnych z linią partii. To standard. Ale dalej robi się ciekawiej – przepisy wchodzą głęboko w psychologię użytkownika.

Koniec z filmem „Her”?

Chiński regulator chce zakazać tworzenia systemów, które:

  • Uzależniają: AI nie może być projektowane tak, by celowo wciągać użytkownika w nieskończoną interakcję.
  • Zastępują ludzi: systemy nie mogą mieć na celu zastąpienia prawdziwych relacji międzyludzkich (cios w aplikacje typu „AI Girlfriend”).
  • Manipulują emocjonalnie: zakazane jest nakłanianie użytkowników do złych decyzji poprzez granie na ich uczuciach.

Co więcej, jeśli rozmawiasz z botem dłużej niż dwie godziny, system musi wyświetlić pop-up nakazujący przerwę.

Wymóg niemożliwy do spełnienia?

Jeden z punktów brzmi jednak jak koszmar dla firm technologicznych. Przepisy wymagają, by AI wykrywało u użytkownika „intensywne stany emocjonalne” (np. myśli samobójcze) i w takim momencie przekazywało rozmowę żywemu człowiekowi. Biorąc pod uwagę skalę działania takich usług, zatrudnienie armii ludzkich moderatorów gotowych przejąć rozmowę w czasie rzeczywistym jest karkołomne  ekonomicznie i logistycznie.

Zachód vs Wschód

Mamy więc fascynujący obrazek. W Nowym Jorku dostaniesz ostrzeżenie „to może uzależniać”, ale algorytm dalej będzie robił swoje. W Chinach algorytm zostanie prawnie wykastrowany z mechanizmów uzależniających. Paradoksalnie, w kwestii ochrony zdrowia psychicznego (pomijając cenzurę polityczną), to chińskie podejście może okazać się skuteczniejsze – choć zabójcze dla innowacji.

„Cyfrowe papierosy” w Nowym Jorku. Ostrzeżenia na social mediach to prezent dla prawników Big Techu, a nie ochrona dzieci

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .