Среди (почти) всех пугающих технологий будущего, которые могут негативно повлиять на мир, есть только несколько абсолютно ужасающих, которые мы никогда не хотели бы видеть реализованными. Вот некоторые (в произвольном порядке):
Военные нанотехнологии
Ничто не может привести к концу человечества быстрее, чем использование в качестве оружия молекулярной нанотехнологии. Это угроза, которая может опираться на два разрушительных фактора: экспоненциальный рост и неконтролируемое воспроизведение. Циничное правительство, неправительственная организация или даже террористическая группа могут создать микроскопические машины, способные воспроизводить себя, быстро поглощая ресурсы планеты. Крошечные приспособления, которые с яростью огня превращают землю в серую слизь.
Роберт Фрейтас, эксперт и теоретик нанотехнологий, предположил несколько возможных вариантов смертоносных нанотехнологий. Некоторые машины, питающиеся воздухом, могли бы захватывать весь солнечный свет, другие были бы жадны до углерода или биомассы или могли бы «питаться» определенными организмами.
В худшем случае, известном как «глобальная экофагия», планета будет полностью уничтожена всего за 20 месяцев. За это короткое время человек должен противостоять, казалось бы, неудержимым машинам, находя способы прервать их репликацию.
По этой причине нанотехнологии, заключает эксперт, необходимо жестко регулировать, вводя мораторий на их использование в военных целях.
Разумные машины
Распространено мнение, что человечество рано или поздно станет свидетелем рождения искусственных машин, обладающих сознанием. Однако мы должны заранее принять меры предосторожности, чтобы учесть все возможные этические последствия данного случая. Эта тема также блестяще раскрыта в сериале «Мир Дикого Дикого Запада», если вы понимаете, о чем я говорю.
Еще в 2003 году философ Томас Метцингер заметил, что было бы ужасно жестоко разрабатывать программное обеспечение, которое может пострадать.
«Что бы вы сказали, если бы кто-то вышел и сказал: «Эй, я хочу создать детей с генетическими нарушениями!» В целях прогресса нам нужны люди, упускающие какую-то часть или имеющие определенные эмоциональные или когнитивные нарушения». Вам это покажется абсурдным или нет?». Более того. Мы считаем это опасным. Разумная машина, если она действительно разумна, действительно может страдать от всевозможных недостатков. И не имея никакого комитета по этике, никакого представительства в свою защиту.
По словам футуролога Луи Хелма, одна из лучших особенностей компьютера - это то, что вы можете заставить его делать скучные вещи, не утомляя его. Поскольку мы решили использовать AI вместо человека для некоторых задач, может быть аморальным намеренно запрограммировать его на застенчивость. Захват совести в машину, а затем принуждение ее работать на вас очень, очень похоже на худшее рабство в истории.
Не говоря уже о том, что гипотетический искусственный интеллект, созданный для воссоздания биологической структуры мозга, результатом хорошего программирования может быть тот факт, что этот интеллект потеряет рассудок, если подвергнется несправедливой и значительной нагрузке на его психику.
Это повод уделить пристальное внимание развитию устрашающих технологий на основе искусственного интеллекта, призванных обретать сознание.
Читатели разума
Опасность пугающих технологий, связанных с этой возможностью, естественно, существует в случае машин, способных читать мысли и воспоминания человека на расстоянии и без его согласия. Это будет очень сложно, пока человеческий мозг не будет подключен к сети или к любой форме связи.
Разработка чтение мыслей однако это происходит быстро. В прошлом году голландская команда использовала сканирование мозга и машинное обучение, чтобы определить, на какие буквы человек смотрел в данный момент. Революция открывает возможность реконструировать человеческие мысли на невиданном ранее уровне детализации: можно будет узнать, на что мы смотрим, что мы думаем, что мы помним. Вот, пожалуйста. Теперь представьте, что нечто подобное используется любым тоталитарным режимом, и вспомните концепцию «испытания намерений».
Комментарии закрыты.