Ближайшее будущее
Нет Результат
Просмотреть все результат
31 мая 2023
  • Главная
  • Технология
  • здоровье
  • Ambiente
  • Энергия
  • Транспорт
  • Пространство
  • AI
  • концепции
  • H+
Понимать, предвидеть, улучшать будущее.
CES2023 / коронавирус / Россия-Украина
Ближайшее будущее
  • Главная
  • Технология
  • здоровье
  • Ambiente
  • Энергия
  • Транспорт
  • Пространство
  • AI
  • концепции
  • H+

Понимать, предвидеть, улучшать будущее.

Нет Результат
Просмотреть все результат
Robotica, Технология

AI, законы Азимова - макулатура

Этика искусственного интеллекта окончательно отодвинет знаменитые законы робототехники Азимова на второй план.

13 мая 2023
Джанлука РиччиоДжанлука Риччио
⚪ 5 минуты
Поделиться1шпилька2Твитнуть1ОтправитьПоделитьсяПоделитьсяПоделиться1

ПРОЧИТАЙТЕ ЭТО В:

Взрыв искусственного интеллекта и классическое деление на «семерки», между возвышенный и катастрофисты (некоторый баланс никогда) вновь разожгли дебаты об этике ИИ. На самом деле тема, которая существует уже несколько десятков лет. С момента появления слова «робот» мы задавались вопросом, как ограничить машины, чтобы они не уничтожили человечество. Ты помнишь? Прочтите Азимова и вперед.

Творчество Айзека Азимова и его законы

Это самый известный пример размышлений об ограничении технологий. Законы робототехники Айзека Азимова, которые в таких произведениях, как рассказ «Обход» или «Я, робот», включены во все искусственные интеллекты в качестве меры безопасности.

Кто-то заблуждался, что как-то они будут работать в реальности, или внушил подобные решения. Это не так, и скажу коротко: законы Азимова ненастоящие, и реализовать их в реальности невозможно. Они уже превратились в макулатуру, как показывает Midjourney.

законы Азимова

Вы их помните? Давай пересмотрим?

Законов Азимова четыре:

Статья продолжается после соответствующих ссылок

Будущее за фактотумом: чат-боты изменят маркетинг отношений

Смотри, что у меня на уме: ИИ, который превращает мысли в HQ-видео

  1. Первый закон: робот не может причинить вред человеку или своим бездействием допустить причинение вреда человеку.
  2. Второй закон: робот должен подчиняться приказам, отдаваемым людьми, если такие приказы не противоречат Первому закону.
  3. Третий закон: робот должен защищать свое существование при условии, что такая защита не противоречит Первому или Второму закону.

Самые страстные читатели Азимова знают, что существует четвертый закон, введенный в 1985 году романом "роботы и империя". Называется Закон Зеро и читается так:

Робот не может причинить вред человечеству или своим бездействием допустить причинение вреда человечеству.

законы Азимова
Айзек Азимов

А теперь забудьте их.

Начав писать и рассуждать в 40-х годах, Айзек Азимов просто не понимал, что необходимо программировать ИИ с помощью определенных законов, чтобы они не причиняли вреда. Он также понял, что эти законы не сработают.

Ла Прима этические проблемы слишком сложны, чтобы иметь простой ответ «да» или «нет». Второй по самой своей природе неэтично: оно требует, чтобы живые существа оставались рабами. Ла Терца потому что это предполагает постоянное социальное расслоение с огромным количеством потенциальной эксплуатации. И нулевой закон? Он терпит неудачу сам по себе, как и все остальные.

Подводя итог: законы Азимова представляют собой интересную отправную точку для размышлений об этике искусственного интеллекта, но реальный мир требует более конкретных и адаптируемых решений.

Который?

Эксперты работают над тем, чтобы ИИ был безопасным и этичным, исследуя разные направления. 4 основных:

  1. Прозрачность и объяснимость: Алгоритмы должны быть прозрачными и объяснимыми, чтобы пользователи могли понять, как и почему ИИ принимает те или иные решения.
  2. Человеческие ценности и предубеждения: Системы искусственного интеллекта должны быть разработаны с учетом основных человеческих ценностей и уменьшения нежелательных предубеждений. Это включает в себя обучение различным наборам данных и анализ влияния решений, принимаемых ИИ, на различные группы людей.
  3. Безопасность и надежность: Это самоочевидно. Следует избегать риска сбоев в работе или кибератак.
  4. Контроль и ответственность: Важно установить, кто несет ответственность за действия, совершенные искусственным интеллектом, приписать последствия в случае возникновения проблем.

К этим «новым законам Азимова» (которые не являются азимовскими) надо добавить глобальные этические нормы и стандарты: для этого нужна международная кооперация по развитию искусственного интеллекта, а не сектантство.

Джеффри Хинтон, один из «отцов» ИИ, он определил искусственный интеллект как «новая атомная бомба». я не согласен, и я не одинок. Однако он может стать таковым, и в этом будет наша вина, а не ИИ. Особенно, если мы сначала воспринимаем это как «дубину» против других.

законы Азимова
И не дуйся на меня, давай.

Прочитано Азимовым, до свидания. Новые законы, поторопитесь

Первый автономные транспортные средства, действительно: полуавтономные уже имеют «силу» убивать людей по неосторожности. Такое оружие, как дроны-убийцы, на самом деле может убивать действующий автономно. Посмотрим правде в глаза: в настоящее время ИИ не может понимать законы, не говоря уже о том, чтобы следовать им.

Эмуляция человеческого поведения еще недостаточно изучена, и развитие рационального поведения сосредоточено в ограниченных и четко определенных областях. Два очень серьезных недостатка, потому что они позволили бы разумному ИИ (который на данный момент, подчеркиваю, не существует и несмотря на чем то, что они говорят его пигмалионы, мы не знаем, будет ли он существовать), чтобы деинтерпретировать любое указание. И в итоге, двумя простыми словами, выйти из-под контроля.

Из-за этого я не знаю, сколько времени у нас есть. Год, десять, вечность. Я знаю, что, как и законы Азимова, кому-то нужно решить проблему, как предотвратить вред ИИ для человека, и они делают это сейчас.

Скайнет — всего лишь вымысел, но в вымысле он не давал нам спасения. И вы знаете: научная фантастика не предсказывает будущее, но часто вдохновляет его.

Теги: искусственный интеллект


Чат GPT Megaeasy!

Конкретное руководство для тех, кто приближается к этому инструменту искусственного интеллекта, также предназначенному для школьного мира: множество примеров приложений, указаний по использованию и готовых инструкций для обучения и опроса Chat GPT.

Подавать статьи, раскрывать результаты исследований или научные открытия написать в редакцию

Самое читаемое за неделю

  • Окулус дает VR визит к дому Анны Франк

    265 раз поделились
    Поделиться 106 Твитнуть 66
  • Экраны 16k появляются, но мы можем их никогда не увидеть

    4 раз поделились
    Поделиться 1 Твитнуть 1
  • А вот и новая инверсия магнитного поля. Мы готовы?

    4 раз поделились
    Поделиться 1 Твитнуть 1
  • Прощай, камера: вот электронный глаз, который «видит», как мы

    9 раз поделились
    Поделиться 1 Твитнуть 1
  • Даже великаны «промахиваются»: 5 вопиюще неверных пророчеств о будущем

    4 раз поделились
    Поделиться 1 Твитнуть 1

Войдите в Telegram-канал Futurorossimo, нажмите здесь. Или следуйте за нами на Instagram, Facebook, Twitter, Мастодонт e LinkedIn.

Ежедневное завтра.


Futurorossimo.it предоставляет новости о будущем технологий, науки и инноваций: если есть что-то, что вот-вот появится, здесь оно уже есть. FuturoProssimo является частью сети Вперед, исследования и навыки для будущих сценариев.

FacebookTwitterInstagramTelegramLinkedInМастодонтPinterestTikTok
  • Ambiente
  • архитектура
  • Искусственный интеллект
  • Гаджеты
  • концепции
  • Дизайн
  • медицина
  • Пространство
  • Robotica
  • работа
  • Транспорт
  • Энергия
  • Французское издание
  • немецкое издание
  • Японская версия
  • Английский издание
  • Португальское издание
  • Русское издание
  • Испанское издание

Подписаться на рассылку новостей

  • Редакторы
  • Реклама на ФП
  • Персональные данные

© 2022 Футуропроссимо - Creative Commons License
Эта работа распространяется по лицензии Creative Commons Attribution 4.0 International.

Нет Результат
Просмотреть все результат
Понимать, предвидеть, улучшать будущее.
  • Главная
  • Технология
  • здоровье
  • Ambiente
  • Энергия
  • Транспорт
  • Пространство
  • AI
  • концепции
  • H+