Взрыв искусственного интеллекта и классическое деление на «семерки», между возвышенный и катастрофисты (некоторый баланс никогда) вновь разожгли дебаты об этике ИИ. На самом деле тема, которая существует уже несколько десятков лет. С момента появления слова «робот» мы задавались вопросом, как ограничить машины, чтобы они не уничтожили человечество. Ты помнишь? Прочтите Азимова и вперед.
Творчество Айзека Азимова и его законы
Это самый известный пример размышлений об ограничении технологий. Законы робототехники Айзека Азимова, которые в таких произведениях, как рассказ «Обход» или «Я, робот», включены во все искусственные интеллекты в качестве меры безопасности.
Кто-то заблуждался, что как-то они будут работать в реальности, или внушил подобные решения. Это не так, и скажу коротко: законы Азимова ненастоящие, и реализовать их в реальности невозможно. Они уже превратились в макулатуру, как показывает Midjourney.
Первый закон: робот не может причинить вред человеку или своим бездействием допустить причинение вреда человеку.
Второй закон: робот должен подчиняться приказам, отдаваемым людьми, если такие приказы не противоречат Первому закону.
Третий закон: робот должен защищать свое существование при условии, что такая защита не противоречит Первому или Второму закону.
Самые страстные читатели Азимова знают, что существует четвертый закон, введенный в 1985 году романом "роботы и империя". Называется Закон Зеро и читается так:
Робот не может причинить вред человечеству или своим бездействием допустить причинение вреда человечеству.
Айзек Азимов
А теперь забудьте их.
Начав писать и рассуждать в 40-х годах, Айзек Азимов просто не понимал, что необходимо программировать ИИ с помощью определенных законов, чтобы они не причиняли вреда. Он также понял, что эти законы не сработают.
Ла Прима этические проблемы слишком сложны, чтобы иметь простой ответ «да» или «нет». Второй по самой своей природе неэтично: оно требует, чтобы живые существа оставались рабами. Ла Терца потому что это предполагает постоянное социальное расслоение с огромным количеством потенциальной эксплуатации. И нулевой закон? Он терпит неудачу сам по себе, как и все остальные.
Подводя итог: законы Азимова представляют собой интересную отправную точку для размышлений об этике искусственного интеллекта, но реальный мир требует более конкретных и адаптируемых решений.
Который?
Эксперты работают над тем, чтобы ИИ был безопасным и этичным, исследуя разные направления. 4 основных:
Прозрачность и объяснимость: Алгоритмы должны быть прозрачными и объяснимыми, чтобы пользователи могли понять, как и почему ИИ принимает те или иные решения.
Человеческие ценности и предубеждения: Системы искусственного интеллекта должны быть разработаны с учетом основных человеческих ценностей и уменьшения нежелательных предубеждений. Это включает в себя обучение различным наборам данных и анализ влияния решений, принимаемых ИИ, на различные группы людей.
Безопасность и надежность: Это самоочевидно. Следует избегать риска сбоев в работе или кибератак.
Контроль и ответственность: Важно установить, кто несет ответственность за действия, совершенные искусственным интеллектом, приписать последствия в случае возникновения проблем.
К этим «новым законам Азимова» (которые не являются азимовскими) надо добавить глобальные этические нормы и стандарты: для этого нужна международная кооперация по развитию искусственного интеллекта, а не сектантство.
Джеффри Хинтон, один из «отцов» ИИ, он определил искусственный интеллект как «новая атомная бомба». я не согласен, и я не одинок. Однако он может стать таковым, и в этом будет наша вина, а не ИИ. Особенно, если мы сначала воспринимаем это как «дубину» против других.
И не дуйся на меня, давай.
Прочитано Азимовым, до свидания. Новые законы, поторопитесь
Первый автономные транспортные средства, действительно: полуавтономные уже имеют «силу» убивать людей по неосторожности. Такое оружие, как дроны-убийцы, на самом деле может убивать действующий автономно. Посмотрим правде в глаза: в настоящее время ИИ не может понимать законы, не говоря уже о том, чтобы следовать им.
Эмуляция человеческого поведения еще недостаточно изучена, и развитие рационального поведения сосредоточено в ограниченных и четко определенных областях. Два очень серьезных недостатка, потому что они позволили бы разумному ИИ (который на данный момент, подчеркиваю, не существует и несмотря на чем то, что они говорят его пигмалионы, мы не знаем, будет ли он существовать), чтобы деинтерпретировать любое указание. И в итоге, двумя простыми словами, выйти из-под контроля.
Из-за этого я не знаю, сколько времени у нас есть. Год, десять, вечность. Я знаю, что, как и законы Азимова, кому-то нужно решить проблему, как предотвратить вред ИИ для человека, и они делают это сейчас.
Скайнет — всего лишь вымысел, но в вымысле он не давал нам спасения. И вы знаете: научная фантастика не предсказывает будущее, но часто вдохновляет его.
Конкретное руководство для тех, кто приближается к этому инструменту искусственного интеллекта, также предназначенному для школьного мира: множество примеров приложений, указаний по использованию и готовых инструкций для обучения и опроса Chat GPT.
Подавать статьи, раскрывать результаты исследований или научные открытиянаписать в редакцию