Взрыв искусственного интеллекта и классическое разделение на «секты», среди возвышенный и катастрофисты (какой-то баланс никогда) возобновили дебаты об этике ИИ. Тема, которая жива десятилетиями, если честно. С тех пор, как появилось слово «робот», задавались вопросы о том, как ограничить машины, чтобы они не уничтожали человечество. Ты помнишь? Прочтите об Азимове и вперед.
Работа Айзека Азимова и его законы
Они являются самым известным примером размышлений о том, как ограничить технологии. Законы робототехники Айзека Азимова, которые в таких произведениях, как рассказ «Обход» или «Я, робот», заложены во все искусственные интеллекты в качестве меры безопасности.
Кто-то заблуждался, что как-то они будут работать в реальности, или внушил подобные решения. Это не так, и скажу коротко: законы Азимова ненастоящие, и реализовать их в реальности невозможно. Они уже превратились в макулатуру, как показывает Midjourney.
Вы их помните? Давай пересмотрим?
Законов Азимова четыре:
- Первый закон: робот не может причинить вред человеку или своим бездействием допустить причинение вреда человеку.
- Второй закон: робот должен подчиняться приказам, отдаваемым людьми, если такие приказы не противоречат Первому закону.
- Третий закон: робот должен защищать свое существование при условии, что такая защита не противоречит Первому или Второму закону.
Самые страстные читатели Азимова также знают, что существует четвертый закон, введенный в 1985 году романом «роботы и империя«. Называется Закон Зеро и читается так:
Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред.
Айзек Азимов
А теперь забудьте их.
Хотя Айзек Азимов начал писать и рассуждать в 40-х годах, он просто не понимал, что необходимо будет запрограммировать ИИ с особыми законами, чтобы не дать им причинить вред. Он также понимал, что эти законы потерпят неудачу.
Ла Прима этические проблемы слишком сложны, чтобы иметь простой ответ «да» или «нет». Второй по самой своей природе неэтично: оно требует, чтобы живые существа оставались рабами. Ла Терца потому что это предполагает постоянное социальное расслоение с огромным количеством потенциальной эксплуатации. И нулевой закон? Он терпит неудачу сам по себе, как и все остальные.
Вкратце: законы Азимова представляют собой интересную отправную точку для размышлений об этике искусственного интеллекта, но реальный мир требует более конкретных и адаптируемых решений.
Который?
Эксперты работают над тем, чтобы ИИ был безопасным и этичным, исследуя различные направления. 4 основных:
- Прозрачность и объяснимость: Алгоритмы должны быть прозрачными и объяснимыми, чтобы пользователи могли понять, как и почему ИИ принимает те или иные решения.
- Человеческие ценности и предубеждения: Системы искусственного интеллекта должны быть разработаны с учетом фундаментальных человеческих ценностей и уменьшения нежелательных предубеждений. Это включает в себя обучение на различных наборах данных и анализ влияния решений, принимаемых ИИ, на различные группы людей.
- Безопасность и надежность: Это самоочевидно. Следует избегать риска сбоев в работе или кибератак.
- Контроль и ответственность: Важно установить, кто несет ответственность за действия искусственного интеллекта, назначить последствия в случае возникновения проблем.
К этим «новым законам Азимова» (которые не являются законами Азимова) необходимо добавить глобальные правила и этические стандарты: именно поэтому нам нужно международное сотрудничество по развитию искусственного интеллекта, а не сектантство.
Джеффри Хинтон, один из «отцов» ИИ, он определил искусственный интеллект как «новая атомная бомба». Я не согласен, и я не одинок. Однако он может стать таковым, и в этом будет наша вина, а не искусственный интеллект. Особенно, если мы сначала воспринимаем это как «дубинку» против других.
Прочитано Азимовым, до свидания. Новые законы, поторопитесь
Первый автономные транспортные средствадействительно: полуавтономные уже обладают «силой» непреднамеренно убивать людей. Такое оружие, как дроны-убийцы, на самом деле может даже убить действующий автономно. Давайте внесем ясность: ИИ в настоящее время не способен понимать законы, не говоря уже о том, чтобы им следовать.
Эмуляция человеческого поведения еще недостаточно изучена, а развитие рационального поведения сосредоточено на ограниченных и четко определенных областях. Два очень серьезных недостатка, поскольку они позволили бы создать разумный ИИ (который на данный момент, подчеркиваю, не существует и несмотря на чем то, что они говорят его пигмалионы, мы не знаем, будет ли он существовать), чтобы деинтерпретировать любое указание. И в итоге, двумя простыми словами, выйти из-под контроля.
На это я не знаю, сколько времени у нас есть. Год, десять, вечность. Я знаю, что, как и в случае с законами Азимова, кто-то должен решить проблему, как не дать ИИ причинить вред людям, и сделать это сейчас.
Скайнет — всего лишь вымысел, но в вымысле он не давал нам спасения. И вы знаете: научная фантастика не предсказывает будущее, но часто вдохновляет его.