Искусственный интеллект на войне: последнее слово всегда за человеком
Пока большинство пользователей АІ учится правильно задавать вопросы и генерировать картинки, в военной сфере искусственный интеллект выполняет множество сложных задач. И лидер в этой области - компания Palantir, разработки которой помогают нам уничтожать врага с 2022 года. Как все работает?
В последнее время компания Palantir постоянно упоминается как один из лидеров AI в военной сфере. Давайте разберемся, в чем их особенность и сильная сторона.
Palantir не доверяет ни одному AI. Их система одновременно запускает несколько нейросетей, заставляет их спорить между собой и выдает консенсус
На днях Шьям Санкар, технический директор Palantir и подполковник резерва армии США объяснил, как устроена их мультимодельная система. Palantir не доверяет ни одному AI. Их система одновременно запускает несколько нейросетей, заставляет их спорить между собой и выдает консенсус. Как это работает?
Все начинается не в облаке, а в зоне боевых действий - где нет стабильного интернета, зато есть РЭБ. Поэтому первый слой системы сидит прямо на дроне или спутнике. Там работают микромодели компьютерного зрения: они не думают, только смотрят и перекладывают картинку в сухие цифры. К примеру, координаты, вероятности, метки. Спутник зафиксировал бронеколонну, сжал видео в текстовый файл и передал дальше. Трафик сразу падает на 90%. Edge AI от Palantir уже работает в Украине с 2022 года.
...прежде, чем любая нейросеть получит хотя бы байт, система проверяет криптографические допуски. Генерал видит одно, оператор другое, союзник по НАТО третье
Далее данные попадают в так называемую Онтологию. Это не просто база данных. Это большой архив, где каждый танк либо образец техники либо человек переходит в "объект" со связями и историей. И все формируется в единый документ. Но прежде, чем любая нейросеть получит хотя бы байт, система проверяет криптографические допуски. Генерал видит одно, оператор другое, союзник по НАТО третье. AІ физически слепой за пределами того, что ему выдали на одну секунду.
Никакого общения с ChatGPT на тему "спроси что хочешь" здесь нет. Запрос попадает к Оркестратору, который разбивает задачи на части и раздает их микроагентам. Каждый агент зажат в жесткую логику конечного автомата: шаг 1, шаг 2, вызов инструмента. Все в рамках боевого устава.
Самое интересное происходит в точке принятия решения. Когда нужно ответить на вопрос: "это вражеская колонна?". В такие моменты система не верит одной модели. Запрос идет параллельно в GPT, Claude, Llama, Groq, возможно, в засекреченную собственную разработку. Они думают и генерируют варианты независимо, не видя ответы друг друга. Затем Синтезатор сравнивает результаты, ищет консенсус и отсекает галлюцинацию.
При этом за каждым агентом в реальном времени следят читающие логи агенты-оценщики и, если модель начинает грезить или отходить от протокола, процесс их креатива убивается мгновенно. Инженер-человек на этом этапе может вмешаться в цепочку рассуждений, исправить ошибку руками и перезапустить конвейер.
Человек сидит перед дашбордом. На экране: "Обнаружена цель. Вероятность 98%. Консенсус 4 нейросетей. Предлагаемое действие: нанести удар. Нажмите Approve"
Человек сидит перед дашбордом. На экране: "Обнаружена цель. Вероятность 98%. Консенсус 4 нейросетей. Предлагаемое действие: нанести удар. Нажмите Approve". Как видим, главное - что на финальном этапе решение остается за человеком. Приблизительно так это все пока работает.










Комментарии