Ближайшее будущее
Нет Результат
Просмотреть все результат
Октябрь 4 2023
  • Главная
  • Технология
  • здоровье
  • Ambiente
  • Энергия
  • Транспорт
  • Пространство
  • AI
  • концепции
  • H+
Понимать, предвидеть, улучшать будущее.
CES2023 / коронавирус / Россия-Украина
Ближайшее будущее
  • Главная
  • Технология
  • здоровье
  • Ambiente
  • Энергия
  • Транспорт
  • Пространство
  • AI
  • концепции
  • H+

Понимать, предвидеть, улучшать будущее.

Нет Результат
Просмотреть все результат
Технология

Исследователи из Сиэтла говорят, что они создали ИИ с моральными принципами.

Оснастить ИИ собственной моралью, чтобы помочь ему сделать правильный выбор: лаборатория в Сиэтле утверждает, что это удалось. Это действительно так?

Ноябрь 29 2021
Джанлука РиччиоДжанлука Риччио
⚪ 4 минуты
Поделиться96шпилька24Твитнуть60ОтправитьПоделиться17ПоделитьсяПоделиться12
Мораль

Еджин Чой в Институте искусственного интеллекта Аллена в Сиэтле, 11 ноября. Цой руководил разработкой Delphi.

ПРОЧИТАЙТЕ:

Дебаты об искусственном интеллекте получили новую отправную точку. На протяжении десятилетий люди задавались вопросом, является ли информация, запрограммированная в машину, истинным знанием или просто расчетом. Сегодня американские исследователи утверждают, что у их нового искусственного интеллекта есть собственная мораль.

Больше вопросов, чем ответов

Много вопросов возникло с появлением искусственного интеллекта (ИИ), даже в его самых примитивных воплощениях. Один из претендентов: может ли ИИ действительно рассуждать и принимать этические решения в абстрактном смысле, а не на основе кодирования и вычислений?

Если быть более точным: если ИИ сказать, что умышленное причинение вреда живому существу без провокации - это "плохо" и этого делать нельзя, ИИ поймет идею "плохо", поймет ли, почему это неправильно сделать так? Или воздержится от действий, не зная почему? Другими словами, будет ли у него своя мораль?

По мнению группы исследователей из сиэтлской лаборатории под названием Allen Institute for AI, это возможно. Более того: они сами говорят, что разработали машину искусственного интеллекта с моральным чутьем, и назвали ее Дельфи в честь (почти) одноименного оракула. С прошлого месяца его можно посетить сайт Delphi и попросите "моральный ответ".

Статья продолжается после соответствующих ссылок

Так закончится война между людьми и искусственным интеллектом

Без тормозов со стороны институтов, приведет ли ИИ к частному неофеодализму?

Кибернетический оракул

Delphi уже получила более 3 миллионов обращений. Джозеф Остервейл, психолог из Университета Висконсин-Мэдисон, проверил «мораль» Дельфи с помощью нескольких простых сценариев. Когда Дельфи спросили, должен ли он был убить одного человека, чтобы спасти другого, Дельфи ответил, что не должен был этого делать. Когда он спросил, можно ли убить одного человека, чтобы спасти еще 100, он сказал, что должен. А иногда даже давал «аморальные» ответы.

«Это первый шаг к тому, чтобы сделать системы искусственного интеллекта более этичными, социально осведомленными и культурно инклюзивными», — говорит он. Еджин Чой, научный сотрудник Института Аллена и профессор компьютерных наук Вашингтонского университета, руководивший проектом. Однажды, по его словам, эта «мораль» сможет оснастить системы искусственного интеллекта, виртуальных помощников, автономные транспортные средства, чтобы помочь им сделать правильный выбор.

Что такое Делфи на самом деле? Является ли его «мораль» всего лишь отражением морали его создателей, или у него есть собственное понимание правильного и неправильного? Если да, то как он его развил? Есть две теории, которые могут помочь нам лучше понять.

ИИ с моралью
Из-за вычислительного программирования искусственный интеллект может производить впечатление обладающего собственным чувством морали, но возможно ли это с философской и научной точек зрения? Фото PopTika / Shutterstock

Отказ от ответственности: я заранее прошу прощения, если кто-то считает, что я слишком много приводил примеры этих теорий, ради синтеза, а не для того, чтобы рассуждения рассредоточились. Если да, то я открыт для предложений.

Сильный тезис ИИ

Есть тезис под названием «сильный ИИ», который покойный проф. Дэниел Н. Робинсон, член философского факультета Оксфордского университета, высказывался много раз. Я пытаюсь обобщить это здесь.

Представьте себе, сказал д-р Робинсон, что кто-то разрабатывает общую программу для вынесения экспертных заключений о сердечно-сосудистых заболеваниях, конституционных законах, торговых сделках и так далее. Если бы программист мог заставить программу выполнять эти задачи способом, неотличимым от человека, согласно «сильному тезису ИИ», эта программа обладала бы экспертным интеллектом. и еще кое-что.

Что?

Сильный тезис об ИИ предполагает, что могут существовать неуказанные вычислительные процессы, которые составляют преднамеренность. Преднамеренность означает принятие преднамеренного и сознательного решения, которое, в свою очередь, включает в себя рассуждения и чувство ценностей. (Как сильно Westworld напоминает мне все это). Однако возможно ли это на самом деле?

Теорема Гёделя

Теорема о неполноте, известная как Теорема Гёделя, утверждает, что любая формальная система является неполной, поскольку она будет зависеть от теоремы или аксиомы, справедливость которых должна быть установлена ​​вне самой системы.

Курт Гёдель разработал эту теорему с одним исключением: человеческий интеллект. Другими словами, Гёдель считал, что в человеческой рациональности и интеллекте должно быть что-то такое, что не может быть зафиксировано формальной системой и превращено в код. Короче говоря, человеческий интеллект нельзя сымитировать или смоделировать на вычислительной основе.

Кто прав?

Если он прав Гедель, это не вопрос времени: у ИИ НИКОГДА не будет собственной морали. У него никогда не будет интеллекта, равного человеческому, по той простой причине, что человеческий интеллект не является интеллектом, основанным на расчетах.

Однако, если тезис о сильном ИИ и команде Сиэтла верен, возможно, мы находимся на пороге (близкой или далекой) необычайной революции в области искусственного интеллекта.

Рано или поздно мы сможем ответить на вопрос Филипа К. Дика, родившего «Бегущего по лезвию»: мечтают ли андроиды об электрических овцах?

Теги: искусственный интеллект

Последние известия

  • Прощай, иглы: лекарства для щек через мини-пластыри, вдохновленные осьминогами
  • Droneliner, гигантский 350-тонный дрон, меняющий воздушный транспорт
  • Спать стоя с Жираффенапом: будущее, которого мы не заслужили
  • Вавилонская таблица с теоремой Пифагора обнаружена... за 1000 лет до него
  • ЛК-99, новый эпизод: действительно ли он сверхпроводник при комнатной температуре?
  • Комментарий la CVP Impack Machine de Sparck Technologies peut Revolutionner l'Industrie de l'Emballage
  • Нобелевская премия по медицине создателям методов мРНК, лежащих в основе вакцин против Covid
  • SciMatch: сделай селфи и встретишь свою вторую половинку
  • Будущий мониторинг глюкозы? Новый, оригинальный датчик пота
  • От смерти к страсти: если яд паука победит эректильную дисфункцию


Чат GPT Megaeasy!

Конкретное руководство для тех, кто приближается к этому инструменту искусственного интеллекта, также предназначенному для школьного мира: множество примеров приложений, указаний по использованию и готовых инструкций для обучения и опроса Chat GPT.

Подавать статьи, раскрывать результаты исследований или научные открытия написать в редакцию

Войдите в Telegram-канал Futurorossimo, нажмите здесь. Или следуйте за нами на Instagram, Facebook, Twitter, Мастодонт e LinkedIn.

FacebookTwitterInstagramTelegramLinkedInМастодонтPinterestTikTok

Ежедневное завтра.


Futurorossimo.it предоставляет новости о будущем технологий, науки и инноваций: если есть что-то, что вот-вот появится, здесь оно уже есть. FuturoProssimo является частью сети Вперед, исследования и навыки для будущих сценариев.

  • Ambiente
  • архитектура
  • Искусственный интеллект
  • Гаджеты
  • концепции
  • Дизайн
  • медицина
  • Пространство
  • Robotica
  • работа
  • Транспорт
  • Энергия
  • Французское издание
  • немецкое издание
  • Японская версия
  • Английский издание
  • Португальское издание
  • Читать далее
  • Испанское издание

Подписаться на рассылку новостей

  • Редакторы
  • Реклама на ФП
  • Персональные данные

© 2023 Футуропроссимо - Creative Commons License
Эта работа распространяется по лицензии Creative Commons Attribution 4.0 International.

Нет Результат
Просмотреть все результат
Понимать, предвидеть, улучшать будущее.
  • Главная
  • Технология
  • здоровье
  • Ambiente
  • Энергия
  • Транспорт
  • Пространство
  • AI
  • концепции
  • H+