CAЩ виждaт ИИ нe кaтo глoбaлнo oбщo блaгo, a кaтo инcтpyмeнт зa дoминaция. Kитaй cмятa, чe тoй тpябвa дa пpинaдлeжи нa вcички

Автор: Арно Бертран, arnaudbertrand.substack.com

Китайците имат един чудесен принцип: „да се търси истината чрез фактите“ (实事求是). Обикновено той се свързва с Комунистическата партия, защото действително е един от нейните ключови лозунги, но както често се случва в Китай, това е просто модерна употреба на много по-стар идиом, засвидетелстван още в Книгата на Хан (111 г. сл. Хр.).

Какво означава това? По същество това е анти-идеологически принцип: вместо да започваш с доктрина и да гледаш фактите през нейната призма, трябва да направиш обратното — „истината“ се извлича от света такъв, какъвто е. Това е своеобразен химн на емпиричния прагматизъм.

„Търсенето на истината чрез фактите“ е именно онова, което липсва в разговора за изкуствения интелект, който е поразително доктринален и идеологизиран: апокалиптични пророци на гибелта от едната страна, заблудени техно-утописти от другата, а всичко това допълнително изкривено от рамката на великите сили и т.нар. „надпревара в ИИ“. Всеки започва с изводите — било то „Китай е лош, значи трябва да загуби надпреварата“, или „AGI ще ни убие всички“, или „AGI ще донесе нова ера на изобилие“ — и после работи назад, за да намери факти, които да паснат.

Интересно е да се сравни това с ранните дни на интернет — период, на който, за съжаление, съм достатъчно възрастен да съм бил свидетел като късен тийнейджър и млад възрастен. Тогава също имаше идеологически измерения и много наивност — определено не „търсехме истината от фактите“ — но общото настроение беше фундаментално оптимистично, универсалистко и свободолюбиво. Това бяха доктринални убеждения в смисъл, че никой не беше проверил дали са верни, но бяха споделени убеждения. Почти всички по света мислеха по сходен начин, така че нямаше идеологическа битка.

Например днес изглежда доста комично твърдението на Бил Клинтън от 2000 г., че интернет неизбежно ще либерализира Китай и че опитите на правителството да го контролира са „като да се опитваш да заковеш желе за стената“ — аргумент, че това е „причина да ускорим усилията за въвеждане на Китай в света“.

Сравнете това с днешната рамка за ИИ по отношение на Китай: днес не само че няма говорене за „включване на Китай“ — цялата политическа архитектура, от експортни ограничения до забрани за чипове, е изрично насочена към това Китай да бъде изключен. Никой също не очаква, че ИИ ще либерализира когото и да било: напротив, всяка страна е убедена, че другата ще го използва, за да увеличи властта си със злонамерени цели, да следи населението си и в крайна сметка да доминира света.

И честно казано, китайската страна има основание да вярва в това, защото точно това заявява американската страна, че възнамерява да прави с ИИ — което е пълен контраст с дискурса около ранния интернет.

Тогава ранната мрежа беше изграждана предимно от млади хора в студентски общежития и гаражи, които се възприемаха като участници в глобално общо благо. Днес хората, които изграждат ИИ в САЩ — шепа лаборатории, работещи в тясна връзка с държавата за национална сигурност — открито представят работата си като инструмент за американско надмощие.

Вземете например Palantir и техния неотдавнашен манифест, публикуван в X: в него няма никаква претенция за изграждане в полза на света. Напротив, твърди се, че „инженерният елит на Силициевата долина има положително задължение да участва в защитата на нацията“, че западната цивилизация трябва да „надделее“, че твърдата сила през този век ще бъде изградена върху софтуер и „ИИ оръжия“, и че съжителството с други е — имплицитно — извън дневния ред.

А ако някой не е разбрал посланието, те наскоро смениха слогана си на „Софтуер, който доминира“.

Погледнато назад, може би е трябвало да е очевидно, че компания, кръстена на палантирите — „виждащите камъни“, които Саурон, въплъщението на абсолютното зло при Дж. Р. Р. Толкин, използва, за да покварява и доминира Средната земя — едва ли ще създава инструменти за човешко благоденствие…

И това не се отнася само за Palantir: това е практически официалната позиция на целия американски „frontier“ ИИ екосистема.

Като друг пример може да се посочи Дарио Амодеи, главен изпълнителен директор на Anthropic (създателите на Claude AI), който предлага „стратегия на съглашение“, при която Западът трябва да използва ИИ за постигане на „устойчиво военно превъзходство (тоягата)“, като същевременно предлага да разпространява ползите от мощния ИИ (моркова) в замяна на политическа подкрепа.

На практика Амодеи вижда ИИ едновременно като инструмент за военно надмощие и като средство за принуда — форма на политически натиск. Това няма нищо общо с отворения, универсалистки дух на ранния интернет и е почти неразличимо от позицията на Palantir.

Ако приложим принципа „да търсим истината чрез фактите“ към Anthropic, реалността около компанията рязко контрастира с публичния ѝ образ.

През февруари имаше мащабна медийна история за това как Anthropic отказва искане на Пентагона Claude да бъде използван за масово вътрешно наблюдение и напълно автономни оръжия. Историята беше представена еднозначно: етична компания, поставяща граници.

Но почти никой не акцентира върху причината Пентагонът изобщо да води такива преговори с Anthropic: фактът, че през януари 2026 г. министърът на отбраната Пийт Хегсет издава меморандум за ускоряване на военната ИИ доминация на САЩ, изискващ „всяка законна употреба“ в договорите.

Anthropic беше засегната, защото вече беше дълбоко интегрирана в отбранителния апарат: партньорство с Palantir, продукт Claude Gov, договор за 200 милиона долара с Пентагона. Тоест, компанията не беше „въвлечена“ — тя вече беше вътре.

Освен това Claude вече беше използван от Пентагона за залавянето на Николас Мадуро, според публикации. Това поставя под въпрос дали въпросният „конфликт“ не е бил по-скоро PR операция.

Ако се вгледаме внимателно, „етичната линия“ на Anthropic означава следното: наблюдение е допустимо, стига да не е „масово“ вътре в САЩ — но масово външно наблюдение е напълно приемливо. С други думи, останалият свят може да бъде следен без ограничения.

Същото важи и за „напълно автономните оръжия“: не се отхвърля идеята, а само текущата им ненадеждност. Компанията дори предлага да работи за подобряване на тези системи.

С други думи, не става дума за етично възражение срещу автономното убиване, а за възражение относно качеството му.

Подобни примери могат да се дадат и с OpenAI, Google или Meta — това не са изолирани случаи, а системен модел.

Ако направим крачка назад, картината е ясна: САЩ виждат ИИ не като глобално общо благо, а като инструмент за доминация.

Но това не означава, че трябва автоматично да заемем „страната на Китай“. Самата рамка — ИИ като състезание между цивилизации — е проблемът. Не можеш да търсиш истината от фактите, ако изначално приемаш, че трябва да има победител.

Помислете за електричеството: абсурдно би било да го разглеждаме като надпревара между държави. Това е общочовешка технология.

Днес Китай има по-отворен подход — например с DeepSeek V4, който е open-source, конкурентен на водещите модели и независим от западни технологии. Това е визия за ИИ като обща инфраструктура.

Но дори тук не става дума за „Китай да спечели“, а за принципа, че такава технология трябва да принадлежи на всички.

Аналогията с електричеството показва нещо важно: стойността не идва от контрола върху технологията, а от нейното разпространение и приложенията върху нея.

Дженсън Хуанг описва ИИ като „петслоен кейк“ — енергия, чипове, инфраструктура, модели и приложения. Истинската стойност е в последния слой.

Историята го потвърждава: богатствата се създават върху приложенията, не върху базовата инфраструктура.

Затова опитът да се ограничава разпространението на ИИ е икономически нелогичен.

Що се отнася до аргумента за AGI — че първият ще доминира завинаги — това е по-скоро идеология, отколкото реалност. Днешните модели дори не могат надеждно да изпълняват задачи на шестгодишно дете.

Идеята, че сме на ръба на божествен интелект, не се подкрепя от фактите.

Истината е, че компаниите имат интерес да поддържат този наратив.

А дори и да приемем аргумента за AGI, фактите показват, че стратегията на ограничаване вече се е провалила: китайските модели са на същото ниво.

Реалният риск не е суперинтелигентността, а влиянието на малък брой компании върху политиката.

В крайна сметка:

1. „Надпреварата в ИИ“ е наратив, създаден от заинтересовани компании

2. Икономиката на такива технологии наказва „победителите“

3. Дори по собствените критерии на „ястребите“, надпреварата вече е загубена

След сто години идеята, че ИИ е бил разглеждан като надпревара между държави, ще звучи толкова абсурдно, колкото днес би звучала надпревара за „спечелване“ на електричеството.

Още през 111 г. Книгата на Хан го е формулирала най-добре: търсете истината чрез фактите.

Източник: arnaudbertrand.substack.com

ВИЖТЕ ОЩЕ:





Ако статията ви е харесала, споделете я с приятелите си в социалните мрежи от тук:

Коментирай първи

Остави отговор

E-mail адресът Ви няма да бъде публикуван.