Искусственный интеллект, как и все остальное: у него есть как положительные, так и отрицательные стороны. Многие (учёные и не только) надеются, что это изменит нашу жизнь к лучшему, но есть и люди (ну ладно, люди: Stephen Hawking, а не кто-нибудь), кто считал это абсолютным злом. Помимо Хокинга, другие любят Юваль Харари они думают, что это возможно получить возможность «взломать» людей. Третьи любят Мо Гадватвместо этого они предупреждают нас от желания «создать Бога» с помощью ИИ.
Что вы думаете? В любом случае, между светами и тенями (и небольшим смехом) я собрал 6 случаев, в которых искусственный интеллект уже использовался, чтобы зайти слишком далеко.
В одном исследовании искусственный интеллект использовался для прогнозирования преступлений.
Академические исследования являются основой научного прогресса и знаний. В данном случае, однако, исследователи зашли слишком далеко, выпустив академическое исследование, в котором отмахнулись от Ломброзо до n-й степени, используя ИИ для прогнозирования преступлений... с их лица.
ИсследователиГаррисбургский университет они объявили в 2020 году что они разработали программное обеспечение, которое предсказывает, является ли кто-то преступником. Программа может предсказывать преступность с точностью более 80%и без каких-либо расовых предрассудков. В сцене из Minority Report исследователи даже заявили, что это программное обеспечение поможет правоохранительным органам.
Реакция? К счастью, яростный. Более 2425 экспертов подписали письмо с просьбой к научному журналу Springer Nature не публиковать и не одобрять подобные исследования. Апелляция была принята, и даже сам Гаррисбургский университет удалил пресс-релиз об исследовании. До того как?
Умные лыжные штаны: здесь мы просто за гранью
I ткани с использованием ИИ они становятся более развитыми. Однако помимо мобильного телефона есть еще кое-что, более умное.
«Умное нижнее белье» от Скиин обещает помочь вам чувствовать себя комфортно, поскольку он получает биометрические данные, включая частоту сердечных сокращений, осанку, внутреннюю температуру тела, положение и шаги. Датчики, встроенные в ваше нижнее белье (этого одного предложения достаточно, чтобы почувствовать дрожь), непрерывно отслеживают и анализируют ваше тело. Результаты, достижения? Перед вашими глазами неизбежное приложение-компаньон.
Ну да. Однажды вам придется не забыть зарядить и свое нижнее белье.
DeepNude
La Технология Deepfake это весело для всех, кто хочет видеть его большое лицо в фильмах, но помимо этого у него есть и более темная сторона. По оценкам аналитиков, 96% дипфейков - про секс (Бьюсь об заклад, вы не знали).
Вы все помните DeepNude, да ладно, мы не шутим. Это было приложение, которое использовалось, когда вам нужно было поддельное изображение обнаженной женщины. Все, что вам нужно было, это загрузить ее фотографию в одежде, и приложение создало обнаженную версию. В 70-е годы это звучало бы как забавная игра, но тогда это было не так, и с нынешним пониманием это определенно не так сегодня.
И снова негативная реакция была сильной, и создателю приложения пришлось удалить его. Хотя это была победа женщин во всем мире, подобные приложения продолжают распространяться. Отчет Компания Sensity по поводу дипфейк-ботов исследовала дипфейк-ботов, которые генерируют фотографии обнаженных женщин и продаются в комнатах Telegram. Пока закон не настигнет технологию дипфейков, будет мало средств правовой защиты для людей, которые стали жертвами явного дипфейк-контента.
Тай, нацистский чат-бот Microsoft
В 2016 году Microsoft выпустила чат-бота под названием Tay в Твиттере. Тай был создан для того, чтобы учиться, взаимодействуя с людьми. Однако менее чем за 24 часа его личность превратилась из любопытного миллениала в расиста и злого человека.
С другой стороны, те, кто практикует, хромают. Вы поймете, это был Twitter, а не клуб Hello Kitty. Провокационные и противоречивые сообщения пользователей полностью сбили искусственный интеллект с пути, выведя его значительно за пределы ожидаемого.
Эффектный момент? Пользователь спрашивает Тэя: «Действительно ли случился Холокост?» и Тэй отвечает: «Это было выдумано». В течение 16 часов после публикации Microsoft заблокировала учетную запись Тэя, заявив, что она стала объектом неустановленной скоординированной атаки. Штора. Я предпочел Кортану.
«Я уничтожу людей»
Еще мне нравится София, андроид от Hanson Robotics. Я иногда говорил о ней и ее эволюции как о Грейс, робот-медсестра. Однако однажды она тоже пошла дальше.
Как это часто бывает в лучших кошмарах, это произошло прямо во время его дебюта. София ошеломила комнату, полную экспертов и журналистов, когда генеральный директор Hanson Robotics, блестящий Дэвид Хэнсон, спросил ее, не хочет ли она случайно уничтожать людей. Не знаю, вероятно, он воспринял это как очевидный обнадеживающий ответ. Однако София без проблем ответила: «Хорошо. Я уничтожу людей».
Сегодня он все еще существует и поражает мир своими выражениями. У него даже есть получил почетное гражданство Саудовской Аравии, и в своих недавних заявлениях она хотела бы иметь ребенка (я сообщаю все правдивые новости): но то, что там София, для меня не в счет :)
Зееботчат
Устройства Google Nest — это умные помощники, которые могут вам помочь, особенно если вы хотите, чтобы таймер оповещал вас о закипании воды для макарон. Я шучу и по другим причинам. Однако для них это тоже эпизод «за гранью». Команда, создавшая аккаунт Twitch Seebotschat появилась хорошая идея: разместить двух виртуальных помощников Google рядом друг с другом, заставить их разговаривать друг с другом, а затем отправить видео в Интернет.
Кто помнит, что произошло? Ролик просмотрели миллионы раз.
Автономные устройства, переименованы Владимир ed Эстрагон (как персонажи великолепного «В ожидании Годо») устроили представление. Они перешли от обыденной болтовни к исследованию глубоких экзистенциальных вопросов, таких как смысл жизни. В какой-то момент они сильно поссорились и обвинили друг друга в том, что они роботы.
Ведь есть надежда и у человечества, если хотя бы два искусственных интеллекта начнут оскорблять друг друга.
Когда ИИ пойдет дальше: что делать, короче?
Само собой разумеется, что эти эпизоды забавны, почти обнадеживают из-за того, как они разворачиваются, но в какой-то мере в них есть мораль. Суть в том, что ИИ может улучшить нашу жизнь, но он, безусловно, также способен нанести нам серьезный вред.
Как мы можем защитить себя? Я никогда не устану писать об этом на этих страницах. Люди ДОЛЖНЫ убедиться, что ИИ не причинит вреда обществу. Реагируйте немедленно на перерасход (как, например, в случае с DeepNude). И прежде всего регулировать разработку этих машин.
Постоянный мониторинг приложений искусственного интеллекта имеет решающее значение, чтобы гарантировать, что они не принесут обществу больше вреда, чем пользы. Это то, что позволит нам снова улыбнуться, когда мы будем говорить об искусственном интеллекте, выходящем за рамки. Потому что, если мы все еще здесь улыбаемся, это будет означать, что мы выживем.