Возрастное ограничение 12+

Palantir с кровавыми мальчиками в глазах не скайнет и не существует, но уже действует

Описание

Palantir с кровавыми мальчиками в глазах не скайнет и не существует, но уже действует


Уважаемые, вот прикиньте его к носу, который собирает миллиарды данных, анализирует их за секунды и предсказывает действия противника. 


Нейротинтеллект, который помогает принимать решения о жизни и смерти, о начале и окончании войн. И не из научной фантастики. Он существует. И зовут его не Скайнет, а Palantir.


Многие привыкли думать, что искусственный интеллект — это будущее. Но на самом деле он уже здесь. Он управляет нашими новостными лентами, рекомендует товары, распознаёт лица в толпе... И, как выяснилось, он уже участвует в планировании военных операций - бух бух.


Война на Ближнем Востоке, конфликт с Ираном, кризисные зоны по всему миру — всё это становится полигоном для новых технологий. 


И на передовой этой цифровой войны стоит компания Palantir, созданная миллиардером Питером Тилем. Да-да, тем самым, который финансировал в России запрещённый Facebook на зарядке, а потом стал одним из ключевых спонсоров Дональда Трампа.


Palantir разработала специальную платформу под названием Mosaic. Это не просто программа. Это мощный аналитический инструмент, способный обрабатывать 400 миллионов данных о ядерных объектах Ирана. 


Mosaic был создан при участии In-Q-Tel — теневого венчурного фонда ЦРУ, который когда-то вложился даже в Google. 


То есть речь идёт не просто о коммерции. Это часть глобальной стратегии, где технологии становятся оружием, а данные — боеприпасами.


Но вот в чём парадокс: искусственный интеллект, созданный для повышения точности и эффективности, сам начинает грешить неточностями. И дело не только в технических ограничениях. Проблема гораздо глубже.


Когда мы говорим об искусственном интеллекте, мы часто забываем, что он лишь отражение тех данных, которыми его кормят. 


А эти данные формируются людьми. Политиками. Разведками. Корпорациями. 


И все они имеют свои интересы, установки, идеологии. Алгоритмы, которые должны быть объективными, на деле становятся зеркалом продолжения человеческой предвзятости. 


И тогда искусственный интеллект перестаёт быть помощником. Он становится проекцией их страхов, стереотипов и ошибок.


Пример? Посмотрите на Украину. Там Palantir тоже использовался, как важно заявил сам Питер Тиль, «в качестве тактического ядерного оружия». 


Однако контрнаступление, подготовленное с помощью этих технологий, закончилось провалом. 


Почему? Потому что данные были неполными. Или искажёнными. Или просто не учтены факторы, которые искусственный интеллект не умеет интерпретировать — человеческая воля, погодные условия, моральный дух солдат...


То же самое сейчас повторяется с Ираном. Предиктивные алгоритмы, которые должны были предсказать действия Тегерана, оказались не готовы к реальности. 


Они видели модель, а не мир. Они искали закономерности в прошлом, чтобы предсказать будущее — но мир слишком быстро меняется, чтобы его можно было загнать в формулу.


И вот здесь возникает главный вопрос:  

Куда движемся? 


Создаём системы, которые принимают всё больше решений вместо людей. Мы делегируем им ответственность за безопасность, за оборону, за стратегию. Но если искусственный интеллект работает на основе ложных данных или политически ангажированных алгоритмов, то он может стать не инструментом мира, а источником катастрофы. 


Представьте, что один неверный прогноз искусственного интеллекта приведёт к тому, что будет дан приказ об ударе. По ложному сигналу. Без проверки. Без человека в цепочке.


Это и есть настоящая угроза. Не Скайнет, не восстание машин. Угроза — в том, что мы начнём слепо доверять искусственному интеллекту, считая его беспристрастным, объективным и всезнающим. А он пока остаётся таким же уязвимым, как и мы.


Поэтому нужно задаться вопросом:


- Кто контролирует данные?

- Кто пишет алгоритмы?

- Кто определяет, какие модели использовать?

- И кто несёт ответственность, когда всё идёт не так?

- И кого потом повесить, после того как, чтобы другим не повадно было?


Если мы этого не сделаем, то однажды проснёмся в мире, где войны начинаются не по приказу президента, а по рекомендации машины. И тогда уже не важно, хочет она этого или нет. Главное — кто запрограммировал её желание.


В итоге скайнет не существует…  Но он уже давно работает.


Благодарю за понимание! Заглядывайте ещё! Подписывайтесь! Лайкайте! Репостуйте! Берегите себя!


#топыкатегорий 

#всяправда

#Гиперреальность

#ИскусственныйИнтеллект 

#РодиласьСибири

Автор

BBC: НЕ БЫЛО! НО ВОТ ОПЯТЬ!
BBC: НЕ БЫЛО! НО ВОТ ОПЯТЬ!