Ранчо Марка Цукерберга «Кулау» на гавайском острове Кауаи занимает площадь 930 акров. Здесь расположены два особняка размером с футбольное поле, тренажерный зал, гостевые дома, теннисные корты, собственная система водоснабжения и подземный туннель, ведущий в убежище с взрывозащитными дверями, водоснабжением, автономными системами электроснабжения и аварийным выходом. Предполагаемая стоимость превышает 200 миллионов долларов. Это не единичный случай. В Техасе… la SAFE (Стратегически бронированные и укрепленные среды) строит бункерный комплекс стоимостью 300 миллионов долларов, в котором разместятся 625 человек, при этом стоимость каждой единицы размещения составит до 20 миллионов долларов. Проект «Аэри» Он обещает сверхбогатым «надёжную защиту от самых серьёзных угроз, включая радиоактивные осадки и электромагнитные импульсы». Тропические бассейны с имитацией солнечного света, изысканные рестораны, медицинские центры с искусственным интеллектом. Пятизвездочный апокалипсис. Que pasa, amigos?
Карта тайников миллиардеров
Рейд Хоффманоснователь LinkedIn, показал New Yorker Что как минимум 50% сверхбогатых жителей Кремниевой долины уже владеют так называемой «страховкой от апокалипсиса». Это не риторика. Это стратегия, подтверждённая именами, местами и цифрами.
Джефф Безососнователь Amazonприобрел два особняка стоимостью 147 миллионов долларов на острове Индиан-Крик во Флориде. Ларри Эллисон, миллиардер Oracle, купил (также) недвижимость на гавайском острове Ланаи. Питер Тиль, Соучредитель PayPal, выбрал Новую Зеландию. Джек Маоснователь Алибаба, директор Джеймс Кэмерон и финансовый гуру Уильям Фоли Все они построили постапокалиптические бункеры в отдаленных местах.
Но давайте на минутку вернёмся к старому доброму Марку. На вопрос, строит ли он убежище на случай конца света, Цукерберг ответил твёрдым «нет». Он назвал подземное пространство площадью около 465 квадратных футов «небольшим убежищем, похожим на подвал». Как будто в обычных подвалах есть взрывобезопасные двери, секретные туннели и двухметровые стены, скрывающие стройплощадку от посторонних глаз.
Всем работникам, участвовавшим в проекте, пришлось подписать строгие соглашения о конфиденциальности. «Это как в «Бойцовском клубе», — сказал один из них. — Мы не можем об этом говорить».
Бизнес апокалипсиса
Компании, которые строят бункеры для Сверхбогатые переживают беспрецедентный бум. Брайан КрэмденПрезидент Закаленные конструкции, компания из Вирджинии, специализирующаяся на строительстве укрепленных домов и бомбоубежищ стоимостью в несколько миллионов долларов, он объяснил CBC News что запросы растут в геометрической прогрессии.
La SAFE Открытие первого комплекса запланировано на 2026 год. Проект «Эри» предполагает сеть роскошных жилых бункеров в 50 городах США, а также 1.000 филиалов по всему миру. Это не просто убежища. Современные бункеры включают в себя апартаменты с деревянной отделкой, дизайнерской мебелью и бассейнами с имитацией солнечного освещения (например, в… Бункер Оппидум в Чехии), винные погреба, тренажерные залы, игровые автоматы, скалодромы и даже боулинг-клубы.
Другие особенности высококлассных бункеров включают системы фильтрации воздуха для предотвращения загрязнения, ветряные турбины и солнечные панели для выработки электроэнергии, а также выделенные помещения для выращивания растений и разведения рыбы, обеспечивающие практически неограниченный запас пищи. Заявленный срок службы аккумуляторов составляет пять лет. Стоимость базовой модели начинается от 1,5 миллиона долларов.
Чего на самом деле боятся сверхбогатые люди
Дуглас Рушкофф, теоретик медиа и автор книги Выживание самых богатыхОн рассказал о сюрреалистической встрече с пятью богатейшими людьми мира, которая состоялась в неизвестном месте. Они хотели получить совет о будущем технологий. Но вопросы, которые они ему задали, касались не инноваций или бизнеса. Они касались выживания.
«Эти миллиардеры они строят бункеры со рвами «Для защиты», — сказал Рашкофф. Его спросили, где лучше выживать: на Аляске или в Новой Зеландии? Как контролировать вооружённую охрану, когда деньги больше не имеют значения? Некоторые думали о дисциплинарных ошейниках, другие — об электронных кодах доступа к еде, третьи — об использовании защитных роботов. Один из них предложил нанять дюжину «морских котиков», готовых вмешаться «в нужный момент».
В своей книге Рашкофф объясняет, что многие миллиардеры, особенно в Кремниевой долине, готовятся к тому, что они называют «СобытиеЭвфемизм для обозначения экологического коллапса, социальных беспорядков, ядерного взрыва, солнечной бури, неудержимого вируса или разрушительной кибератаки.
«Они верят, — пишет Рашкофф, — что при наличии достаточного количества денег и технологий богатые люди смогут жить как боги и преодолеть те бедствия, которые обрушиваются на всех остальных».
Даже учёные, занимающиеся искусственным интеллектом, хотят бункеры
Если сверхбогатые боятся будущего, ученые, которые строят это будущее, боятся еще больше. Илья Суцкевер, гений ChatGPT и соучредитель OpenAI, сказал своим исследователям на встрече летом 2023 года: «Как только мы все окажемся в бункере...» Растерянный исследователь перебил его, чтобы уточнить. Ответ был ещё более неожиданным: «Мы обязательно построим бункер, прежде чем выпустить AGI».
Как сообщается Карен Хао в своей книге Империя ИИ: сны и кошмары в OpenAI Сэма Альтмана, План Суцкевера состоял в том, чтобы защитить ключевые ученые OpenAI от геополитического хаоса или ожесточенной конкуренции между мировыми державами, которые, по его прогнозам, должны были взорваться после появления всеобщего искусственного интеллекта. Это была не шутка. Это было серьезное предложение.
Суцкевер ушел OpenAI в мае 2024 года основать Безопасный суперинтеллект, компания, занимающаяся разработкой безопасных систем искусственного интеллекта. «Нашим первым продуктом будет безопасный ИИ, и до тех пор мы не будем заниматься ничем другим», — сказал он. Изначально компания привлекла 1 миллиард долларов, затем ещё 2 миллиарда, достигнув 1 миллиарда долларов в 2019 году. TechCrunch оценка в 32 млрд долларов по состоянию на апрель 2025 года. Тот факт, что опасения по поводу безопасности ИИ находят отклик среди инвесторов, показывает, что это не просто паранойя.
ИИ: Когда искусственный интеллект превзойдет человеческий
ОИИ (Artificial General Intelligence) — это искусственный интеллект, способный решать любые человеческие задачи с равной или большей эффективностью. Это одна из тем ИИ, к которой мы часто возвращаемся. В последние годы мы представили вам позицию практически всех крупных технологических компаний.
Сэм Альтман, Генеральный директор OpenAIзаявил в декабре 2024 года, что он появится «раньше, чем думает большинство людей в мире». Сэр Демис Хассабис, Соучредитель DeepMind, прогнозирует в ближайшие пять-десять лет. Дарио Амодейоснователь Антропный, написал, что его предпочитаемая версия термина «мощный ИИ» может появиться у нас уже в 2026 году.
в соответствии с Отчет об индексе ИИ за 2025 г. из Стэнфордский институт ИИ, ориентированного на человекаМодели ИИ уже превосходят людей в таких сложных задачах, как понимание естественного языка, визуальное распознавание и решение сложных математических задач. «Модели быстро совершенствуются, достигая человеческих возможностей (а в некоторых случаях и превосходя их)», — говорится в исследовании.
DeepMind Выделены четыре основные категории риска, связанные с развитием ОГН: неправильное использование (злоумышленник может использовать систему AGI для проведения кибератак или разработки вирусов в военных целях), смещение (ИИ может преследовать цели, отличные от запрограммированных), Ошибки (непредсказуемые неисправности) и структурные риски (системное воздействие на общество).
Итог: сверхбогатые и «творцы» напуганы — стоит ли нам бояться?
Рашкофф рассказал показательный анекдот. «Основатель успешной социальной сети рассказал мне, что стирает все свои следы в интернете. Он не публикует ничего негативного об ИИ, опасаясь, что это может быть использовано против него, когда тот однажды возьмёт верх». Рашкофф ответил, что по-настоящему разумный ИИ способен догадаться о том, что миллиардер намеренно скрывает. «Так что всеведущий ИИ всё равно всё узнает». Миллиардер не удержался и выругался.
Парадокс очевиден: Разработчики самого передового в мире искусственного интеллекта больше всего боятся его последствий. Они продолжают исследования, одновременно разрабатывая пути отступления. Это как строить плотину, зная, что она обрушится, но вместо того, чтобы её укрепить, купить лодку.
Однако не будем все драматизировать. Дама Венди ХоллПрофессор компьютерных наук Саутгемптонского университета скептически относится к апокалиптическим прогнозам, особенно в отношении сроков: «Научное сообщество утверждает, что технология ИИ — это нечто выдающееся, но она далека от человеческого интеллекта». Прежде чем мы достигнем настоящего ИИ, потребуется сделать ещё несколько «фундаментальных шагов».
Утопия миллиардеров
Elon Musk он предположил что сверхразумный ИИ может открыть эру «высокого всеобщего дохода». Недавно он поддержал идею о том, что ИИ станет настолько дешёвым и распространённым, что практически каждый захочет иметь собственного «личного робота R2-D2», как говорится в «Звёздных войнах».
«У всех будет лучшее медицинское обслуживание, еда, жильё, транспорт и всё остальное. Устойчивое изобилие», — с энтузиазмом написал он.
Но если бы это оптимистичное видение было реалистичным, почему сторонники ИИ сами строят бункеры? сверхбогатые накопили 42 триллиона долларов за последние десять лет на проектирование убежищ от стихийных бедствий? Противоречие очевидное.
Кто остается за пределами бункеров
Вопрос, который никто из Кажется, сверхбогатые люди задаются простым вопросом:А остальные? Рашкофф рассказал, что встретился с бывшим телохранителем миллиардера, у которого был личный бункер. Он спросил его, какой план безопасности. Ответ был шокирующим: «Если бы это действительно произошло, первоочередной задачей службы безопасности было бы устранение босса и взятие бункера под контроль». И, похоже, он не шутил.
Бункеры, какими бы роскошными они ни были, остаются закрытыми системами. Хрупкими. Если внешний мир станет совершенно непригодным для жизни, никакие технологии не смогут их остановить. Гидропонные сады с датчиками влажности и компьютеризированными системами полива хорошо работают на фермах, где можно заменить погибшие растения. В герметичных бункерах это невозможно. Они требуют внешних ресурсов: обслуживания, запасных частей, людей.
Подавляющее большинство граждан не имеет доступа к бункеру для защиты от радиоактивных осадков и даже средств для его строительства. Относительно немногим разрешено находиться в правительственных бункерах, предназначенных для обеспечения непрерывности деятельности государства. Согласно Отчет Oxfam InternationalСостояние миллиардеров увеличилось на несколько триллионов, а глобальное неравенство достигло беспрецедентного уровня.
Сверхбогатые платят в виде налогов менее 0,5% своего состояния.
Часы Судного дня на запястьях сверхбогатых
28 января 2025 года Совет по науке и безопасности журнала Bulletin раскрыл время Часов Судного дня (Часы Судного дня). SASB рассмотрел множество глобальных угроз: распространение ядерного оружия, прорывные технологии, такие как искусственный интеллект, российско-украинская война, конфликт между Израилем и ХАМАС, биологические угрозы и климатический кризис. Часы Судного дня 2024 года остановились за 90 секунд до полуночи. Это самое близкое время, когда-либо зафиксированное.
Для сверхбогатых часы бьют время ужина. Для остального мира они бьют что-то другое. Рашкофф называет этот образ мышления «Установкой мышления»: это видение, в котором победа означает изоляцию себя от причиненного ущерба, а не его решение.Именно эта идеология привела Маска на Марс, Альтмана — к инвестированию в загрузку сознания, а Цукерберга — в его метавселенную.
Какое общество мы строим, если те, кто обладает большей экономической и технологической мощью, планируют собственный побег вместо того, чтобы искать коллективные решения? Если создатели искусственного интеллекта боятся его самого больше, чем мы, возможно, пора начать задавать более неудобные вопросы.
И требуйте более четких ответов.