Этот пост является частью «Periscopio», информационного бюллетеня Linkedin, который каждую неделю исследует будущие выпуски и публикуется заранее на платформе LinkedIn. Если вы хотите подписаться и просмотреть его, найти все это здесь.
Алгоритмы все больше управляют нашей жизнью, определяют наш выбор и заполняют наши дни. Алгоритм — это «скрытая» и вездесущая система, которая по большей части доминирует в наших обычных цифровых реалиях.
Когда вы слушаете музыку в iTunes, воспроизводите видео на YouTube, ищете подарок на следующий день рождения на Amazon, смотрите свое любимое шоу на Netflix или даже ищете новости в Google, это алгоритм, который определяет доступные вам варианты и, косвенно, то, что вы в конечном итоге будете потреблять.
Алгоритмы строят настоящие «воронки», в которые попадает наше видение реальности и заканчивается в определенном направлении. Здорово, когда Spotify находит запоминающуюся песню, но ужасно, когда социальной платформе удается повлиять на исход выборов, которые должны быть свободными.
Это огромное влияние, тщательно спланированное и поддерживаемое очень немногими игроками в мире: крупными технологическими компаниями.
Должен ли алгоритм работать так?
Есть что-то полезное в достижении наших целей с помощью алгоритма. Это похоже на то, что рядом с нами есть кто-то, кто «понимает нас на лету» и говорит или советует нам то, что мы всегда хотим услышать. Вот почему люди хотят все больше и больше. И компании нанимают их, потому что они гарантируют им большую прибыль. Но может ли это работать только? Это верно?
Вопрос уже возник, мы его делаем все чаще и от него не уклоняются даже читатели этого блога: как мы можем защитить себя от негативного воздействия алгоритмов искусственного интеллекта?
Мы можем ограничить использование социальных сетей или даже удалить учетные записи. Мы можем быть в автономном режиме как можно дольше или хотя бы несколько дней в месяц. Мы можем провести обширное исследование в газетах, чтобы не попасть под влияние фальшивых новостей и лжи. Конечно, мы можем, ценой жертв, но мы можем. Но почему это должно зависеть только от нас?


Почему мы должны все делать сами?
Должно быть что-то, что сами технологические компании должны сделать, вынуждены сделать, чтобы улучшить ситуацию. Мы должны подвергнуть сомнению всю картину, и картина такова: алгоритм по своей сути предназначен для того, чтобы занимать наше время и внимание, используя наши психологические уязвимости. Точка. Вот оно, это правда.
И это серьезно, особенно для нового поколения, выросшего на постоянных ссорах в соцсетях и маленьких лайках. И давать друг другу советы воздерживаться от просмотра, или иметь разные привычки, или предпринимать другие усилия, означает пассивно соглашаться с тем, что технологические компании будут продолжать использовать алгоритмы все больше и больше, все хуже и хуже.
Реальный вопрос, который нужно задать, заключается в другом. Возникает вопрос: почему алгоритм оптимизирован для участия, а не для благополучия? И что нужно, чтобы изменить это положение дел?
Разыскивается алгоритм счастья
Приложив скромные усилия, алгоритмы можно модифицировать для защиты и улучшения нашей тонкой психологии, а не для ее эксплуатации. Алгоритм должен быть обучен для улучшения самочувствия, а не взаимодействия.
Попытайтесь представить, как ситуация улучшится.
Очевидно, что Big Tech даже не думает об этом. Бывший президент Facebook Шон Паркер, который видел рождение гиганта социальных сетей, он сказал давно что главная цель платформы заключалась в том, чтобы максимально использовать время и внимание пользователей.
Да ты знаешь. Цель – прибыль. А валюта — это наше внимание. Последствия? На заднем фоне. Знают ли они, что делают, или едут без тормозов, пока не достигнут критической точки, технологические компании наносят нам ущерб, и они несут за это ответственность.


Важность этики ИИ
Конечно, были бы (очевидные) хорошие новости: появление этики ИИ и совместных инициатив с открытым исходным кодом оказало определенное давление на эти компании. Сейчас они делают все возможное, чтобы продемонстрировать приверженность улучшению своих платформ. Google, Facebook, Microsoft и другие наняли много специалистов по общественным наукам - цель? Делая свои технологии более человечными.
Очевидно трудная задача, которая с самого начала встречает препятствия: все мы помним Тимнит Гебру, эксперт по этике, получивший лицензию Google в 2020 году за то, что поставил на скамью подсудимых «расизм» своего искусственного интеллекта. Это было не единственное и не последнее увольнение такого рода. Затем в 2021 г. Маргарет Митчелл, из той же команды Google по этике.
Тем не менее, этих экспертов увольняют за то, для чего они были наняты: анализ потенциальных рисков технологии. Другими словами, можно нанимать экспертов по этике, если они не мешают ключевым планам компании.
Этика ИИ станет неустойчивой деловой практикой, если профессионалы не смогут выполнять свою работу, то есть расширять возможности компаний, в которых они работают.


Ставить людей выше прибыли
За последние пару лет репутация и общественный имидж этих компаний резко упали из-за такого выбора. И все больше и больше исследователей пытаются объединиться, чтобы продолжить работу над этикой технологий, не подчиняясь экономическим целям этих гигантов.
И, возможно, это и к лучшему: технологические компании вряд ли будут прислушиваться к своим командам по этике, если их проблема чисто экономическая. Если внедрение этики не уменьшит их прибыль, то уменьшит, а если нет, то помешает этим командам работать.
По этой причине сама Тимнит Гебру основала Научно-исследовательский институт распределенного искусственного интеллекта (DAIR), а Маргарет Митчелл работает исследователем и главным специалистом по этике в Обнимая лицо .
Если внутренние команды по этике не могут по-настоящему работать (а они не могут, это кажется мне очевидным), лучше искать решение снаружи.


Армия Спасения
Как уже упоминалось, мы видим все больше и больше усилий в области искусственного интеллекта, но за пределами крупных технологических компаний. Есть субъекты, которые работают коллективно и индивидуально, чтобы изменить судьбу «алгоритма домино»: помимо вышеупомянутых ДАИР и Обнимающего Лица есть большая наука, ЭлеутерАИ e Монреальский институт этики искусственного интеллекта , среди прочих. В Италии у нас есть Итальянское общество этики искусственного интеллекта.
Возможно, пришло время даже тем, кто обладает реальным политическим весом и властью, взять на себя более активную роль в наблюдении за обществами, в чьих руках находится наше будущее.
Алгоритм, построенный вокруг человека
В связи с этим ЮНЕСКО разработала набор рекомендаций чтобы каждый алгоритм ИИ был ориентирован на человека.
«Мы должны создать международные и национальные правила и рамки, чтобы эти новые технологии приносили пользу человечеству в целом», — говорится в документе.
«Пришло время ИИ служить людям, а не наоборот»
«Искусственный интеллект уже влияет на нашу жизнь. В законодательстве имеются некоторые пробелы в этой области, которые требуют немедленного устранения. Первый шаг — договориться о том, какие ценности следует защищать и как следует соблюдать правила. Существует множество рамок и руководств, но они применяются неравномерно, и ни одно из них не является по-настоящему глобальным. А поскольку искусственный интеллект глобальный, то и мы должны быть такими же».


Приверженность миру
Договор ЮНЕСКО был утвержден всего 7 месяцев назад, 24 ноября 2021 года. Это фундаментальный первый шаг к контролю над компаниями, работающими в правовых сферах, с помощью сверхмощных технологий.
Китай также открыл путь для беспрецедентного регулирования, чтобы привлечь людей к ответственности за силу алгоритма. 1 марта правительство Китая ввело в действие закон, который позволит пользователям полностью отключить рекомендации алгоритмов, среди прочих мер, дающих людям право принимать решения над технологическими компаниями.
Тот факт, что этика искусственного интеллекта привлекла внимание глобальных регулирующих органов, показывает, насколько она важна для индивидуального и коллективного благополучия. Находимся ли мы в начале поиска преобразования «больного» алгоритма, который делает нас больными, в алгоритм здоровья?
Я не могу сказать. Но мы должны попытаться во что бы то ни стало.