Искусственный интеллект с каждым днем все больше удивляет нас своими возможностями. Его «умственная сила» увеличивается (хорошо), его потребление увеличивается (плохо), но и риски тоже возрастают (плохо). Это не сказка: без «морального кодекса» ИИ действительно может эволюционировать до такой степени, что поставит под угрозу человеческие ценности и благополучие. Вот почему пришло время сменить парадигму: от интеллекта кискусственная целостность.
Только интегрируя этические принципы в системы машинного обучения, мы сможем сформировать будущее, в котором искусственный интеллект будет уделять приоритетное внимание нашей безопасности, здоровью и справедливости, не позволяя тем, кто им манипулирует (поскольку он все еще является инструментом), использовать его для получения прибыли. связанные цели, например новости уже показывает нам. Это нелегкий путь: он потребует участия экспертов по этике, социологи, философия. Но это задача, которую дальновидные лидеры в каждой отрасли должны решить уже сейчас. Искусственная целостность — это ключ к будущему, в котором человек и машина будут сотрудничать новыми и более этичными способами.
На пути к искусственной целостности: видение Гамильтона Манна
Одним из самых ярких мыслителей по этим вопросам является Гамильтон Манн, с которым я имел удовольствие иметь дело пару раз. Манн — пионер этического искусственного интеллекта: создатель самой концепции искусственной целостности, в которую он углубляется. в своей книге Искусственная целостность: пути продвижения ИИ к будущему, ориентированному на человека».
Его видение ясно: чтобы построить будущее, в котором ИИ будет соответствовать человеческим ценностям, мы должны перейти от интеллекта к честности, предприняв серьезные, практические и конкретные шаги. Это означает аннотировать данные обучения с помощью этических кодексов, контролировать процессы машинного обучения e интегрировать модели человеческих ценностей в системы. Только таким образом мы сможем иметь ИИ, способный принимать справедливые, инклюзивные и прозрачные решения.
Междисциплинарная и глобальная задача
Повторяю: за искусственную целостность не могут отвечать только разработчики. Это требует междисциплинарного сотрудничества: помимо вышеупомянутых социологов, философия с самого начала также необходимо будет привлечь специалистов по этике, законодателей и различные группы пользователей. А поскольку отношения общества с этикой динамичны (иногда эластичны, если быть точным), потребуются механизмы чтобы ИИ мог со временем адаптироваться к меняющимся этическим стандартам. Прежде всего, ответственное руководство для координации усилий.
Развивающаяся область – это Автораалгоритмический, который изучает этику алгоритмов: команды гуманитариев и ученых-компьютерщиков работают над определением моральных принципов для перевода в код.1. С развитием генеративного искусственного интеллекта эти размышления стали более актуальными, чем когда-либо. Мы не можем допустить, чтобы такие мощные технологии работали в этическом и правовом вакууме.
Четыре режима работы этического ИИ
Манн выделяет четыре способа сотрудничества людей и ИИ на основе честности:
- Маргинальный: ИИ определяет области, где его вклад и вклад человека больше не нужны, позволяя перераспределить людей на более ценную деятельность.
- AI-Первый: Даже когда ИИ берет на себя инициативу, он поддерживает этические стандарты справедливости и инклюзивности. Мало того: он умеет объяснить, как приходит к определенным результатам, и избегает предвзятости, например, в медицинской сфере.
- Человек прежде всего: ИИ поддерживает человеческие решения, не заменяя их этических суждений, как в судебных процессах.
- Fusion: идеальная синергия между искусственным интеллектом и человеческой интуицией, например в самоходные автомобили где ИИ управляет вождением, но человеческий надзор вмешивается в этические дилеммы.
Искусственная честность: вопросы, которые лидеры должны задать себе
ИИ будет продолжать развиваться, открывая не только невероятные возможности, но и глубокие этические и социальные проблемы. Лидеры в каждой отрасли должны задать себе несколько важных вопросов:
- Как мы можем избежать чрезмерной зависимости от искусственного интеллекта там, где человеческое суждение имеет решающее значение?
- Как справиться с потенциальным ростом занятости и неравенства доходов?
- Как предотвратить неэтичное использование ИИ и крупномасштабные нарушения конфиденциальности?
- Как регулировать развитие ИИ ответственным и устойчивым образом?
На пути к будущему демократического и этичного ИИ
Я с осторожным оптимизмом смотрю на то, что широкий доступ к инструментам искусственного интеллекта будет продолжать демократизировать эти технологии, делая их доступными для малого бизнеса, новаторов и частных лиц, которые смогут использовать их во благо. Чем больше людей будет иметь возможность понять и применить искусственный интеллект, тем больше будет расти этическое сознание и стремление к лучшему управлению.
Несмотря на то, что мы мчимся к будущему, созданному искусственным интеллектом, у нас есть возможность и ответственность поставить честность во главу угла. Только таким образом мы сможем воспользоваться исключительными преимуществами ИИ, минимизируя при этом его риски и создавая более этичное и инклюзивное общество. Дорога все еще длинная, но благодаря точкам соприкосновения, подобным тем, которые наметил Гамильтон Манн, у нас есть карта, по которой можно сориентироваться.
Будущее искусственного интеллекта должно быть за целостностью.
- Если вы хотите глубже углубиться в тему алгоритмики, в том числе в отношении концепции искусственной целостности, я приглашаю вас подписаться на работа Паоло Бенанти, среди ведущих экспертов (и, безусловно, самых страстных) по этой теме. ↩︎