Этот пост является частью «Periscopio», информационного бюллетеня Linkedin, который каждую неделю посвящен темам Futuro Prossimo, и заранее публикуется на платформе LinkedIn. Если вы хотите подписаться и просмотреть его, найти все это здесь.
Алгоритмы все больше управляют нашей жизнью, направляют наш выбор и наполняют нашу жизнь. Алгоритм — это «скрытая» и вездесущая система, которая по большей части доминирует в нашей общей цифровой реальности.
Когда вы слушаете музыку в iTunes, воспроизводите видео на YouTube, ищете подарок на следующий день рождения на Amazon, смотрите свое любимое шоу на Netflix или даже ищете новости в Google, это алгоритм, который определяет доступные вам варианты и, косвенно, то, что вы в конечном итоге будете потреблять.
Алгоритмы строят настоящие «воронки», в которые попадает наше видение реальности и оказывается в определенном направлении. Приятно, когда Spotify находит запоминающуюся песню, но ужасно, когда социальной платформе удается повлиять на исход свободных выборов.
Это огромное влияние, тщательно спланированное и поддерживаемое очень немногими игроками в мире: крупными технологическими компаниями.
Должен ли алгоритм работать так?
Есть что-то полезное в достижении наших целей с помощью алгоритма. Это как если бы рядом с вами был кто-то, кто «быстро нас понимает» и всегда говорит или советует нам то, что мы хотим услышать. Вот почему люди всегда хотят большего. И компании нанимают их, потому что они гарантируют им большую прибыль. Но может ли это работать только так? Это верно?
Вопрос уже возник, мы его делаем все чаще и от него не уклоняются даже читатели этого блога: как мы можем защитить себя от негативного воздействия алгоритмов искусственного интеллекта?
Мы можем ограничить ваше использование социальных сетей или даже удалить учетные записи. Мы можем оставаться офлайн как можно дольше или хотя бы несколько дней в месяц. Мы можем провести углубленное исследование газет, чтобы не попасть под влияние фейковых новостей и лжи. Конечно, можем, ценой жертв, но можем. Но почему это должно зависеть только от нас?
Почему мы должны все делать сами?
Должно быть что-то, что сами технологические компании должны сделать, вынуждены сделать, чтобы улучшить ситуацию. Мы должны подвергнуть сомнению всю картину, и картина такова: алгоритм по своей сути предназначен для того, чтобы занимать наше время и внимание, используя наши психологические уязвимости. Точка. Вот оно, это правда.
И это серьезная вещь, особенно для новых поколений, выросших в условиях постоянных споров в социальных сетях и небольшого удовлетворения «лайками». А давать друг другу советы воздерживаться от серфинга, иметь другие привычки или прилагать другие усилия — значит пассивно соглашаться с тем, что технологические компании будут продолжать эксплуатировать алгоритмы все больше и больше и хуже.
Настоящий вопрос, который следует задать себе, заключается в другом. Вопрос в том, почему алгоритм оптимизирован для вовлечения, а не для благополучия? И что нужно, чтобы изменить такое положение вещей?
Разыскивается алгоритм счастья
Приложив скромный объем работы, алгоритмы можно было бы модифицировать, чтобы защитить и улучшить нашу тонкую психологию, а не эксплуатировать ее. Алгоритм следует обучать для улучшения самочувствия, а не взаимодействия.
Попытайтесь представить, как ситуация улучшится.
Очевидно, что крупные технологические компании даже не думают об этом. Бывший президент Facebook Шон Паркер, ставший свидетелем рождения социального гиганта, он сказал давно что главная цель платформы — максимально эффективно использовать время и внимание пользователей.
Да ты знаешь. Цель – прибыль. А валюта – это наше внимание. Последствия? На заднем фоне. Независимо от того, знают ли они, что делают, или едут безудержно, пока не достигнут критической точки, технологические компании сеют нам хаос, и они несут ответственность.
Важность этики ИИ
Конечно, есть и (очевидно) хорошие новости: появление этики искусственного интеллекта и совместных инициатив с открытым исходным кодом оказало определенное давление на эти компании. Теперь они делают все возможное, чтобы продемонстрировать стремление улучшить свои платформы. Google, Facebook, Microsoft и другие наняли множество ученых-социологов: цель? Сделайте свои технологии более человечными.
Очевидно трудная задача, которая с самого начала встречает препятствия: все мы помним Тимнит Гебру, эксперта по этике, уволенного из Google в 2020 году за то, что он поставил на скамью подсудимых «расизм» своего искусственного интеллекта. Это было не единственное и не последнее увольнение такого рода. Он продолжил это в 2021 году. Маргарет Митчелл, из той же команды Google по этике.
Тем не менее, этих экспертов увольняют за то, для чего их наняли: анализировать потенциальные риски технологии. Другими словами, можно нанимать специалистов по этике, если они не вмешиваются в ключевые планы компании.
Этика ИИ станет неустойчивой деловой практикой, если профессионалы не смогут выполнять свою работу, то есть привлекать к ответственности компании, в которых они работают.
Ставить людей выше прибыли
За последние два года репутация и общественный имидж этих компаний резко пострадали из-за такого выбора. И все больше и больше исследователей пытаются объединиться, чтобы продолжить работу над этикой технологий, не подчиняясь экономическим целям этих гигантов.
И, возможно, это и к лучшему: технологические компании вряд ли будут прислушиваться к своим командам по этике, если их проблема чисто экономическая. Если внедрение этики не уменьшит их прибыль, то уменьшит, а если нет, то помешает этим командам работать.
По этой причине сама Тимнит Гебру основала Научно-исследовательский институт распределенного искусственного интеллекта (DAIR), а Маргарет Митчелл работает исследователем и главным специалистом по этике в Обнимая лицо .
Если внутренние группы по этике не могут выполнять реальную работу (а они не могут, это мне кажется очевидным), то лучше искать решение извне.
Армия Спасения
Как уже упоминалось, мы видим все больше и больше усилий в области искусственного интеллекта, но за пределами крупных технологических компаний. Есть субъекты, которые работают коллективно и индивидуально, чтобы переломить судьбу «алгоритма домино»: помимо вышеупомянутых DAIR и Hugging Face, существуют большая наука, ЭлеутерАИ e Монреальский институт этики искусственного интеллекта , среди прочих. В Италии у нас есть Итальянское общество этики искусственного интеллекта.
Возможно, пришло время даже тем, кто обладает реальным политическим весом и властью, взять на себя более активную роль в наблюдении за обществами, в чьих руках находится наше будущее.
Алгоритм, построенный вокруг человека
В связи с этим ЮНЕСКО разработала набор рекомендаций чтобы гарантировать, что каждый алгоритм ИИ ориентирован на человека.
«Мы должны создать международные и национальные правила и рамки, чтобы гарантировать, что эти новые технологии принесут пользу человечеству в целом», — говорится в документе.
«Пришло время ИИ служить людям, а не наоборот»
«ИИ уже влияет на нашу жизнь. В этой сфере есть некоторые законодательные пробелы, которые необходимо немедленно устранить. Первый шаг — договориться, какие ценности следует защищать и как следует соблюдать правила. Существует множество рамок и руководств, но они применяются неравномерно, и ни одно из них не является по-настоящему всеобъемлющим. А поскольку ИИ глобален, мы тоже должны быть глобальными».
Приверженность миру
Договор ЮНЕСКО был утвержден всего 7 месяцев назад, 24 ноября 2021 года. Это фундаментальный первый шаг к контролю над компаниями, работающими в правовых сферах, с помощью сверхмощных технологий.
Китай также открыл путь для беспрецедентного регулирования, чтобы привлечь людей к ответственности за силу алгоритма. 1 марта правительство Китая ввело в действие закон, который позволит пользователям полностью отключить рекомендации алгоритмов, среди прочих мер, дающих людям право принимать решения над технологическими компаниями.
Тот факт, что этика ИИ привлекла внимание глобальных регулирующих органов, показывает, насколько она важна для индивидуального и коллективного благополучия. Находимся ли мы в начале пути к преобразованию «больного» алгоритма, который делает нас больными, в алгоритм благополучия?
Я не могу сказать. Но мы должны попытаться во что бы то ни стало.