В прошлом ноябре Мета Annunciato которая покончила бы с технологией маркировки распознавания лиц. Сегодня Microsoft также находится на том же уровне, стремясь успокоить клиентов. Он постепенно откажется от своего искусственного интеллекта распознавания лиц, который может обнаруживать эмоции (и многое другое).
По данным портала Engadget эта технология просто не может определить, грустите вы, счастливы или злы. Благодаря своей способности точно идентифицировать такие характеристики, как возраст, пол и волосы, программное обеспечение искусственного интеллекта гиганта из Редмонда вызвало неизбежные (и законные) споры о конфиденциальности.


Долгое прощание
В сообщение в блоге от Microsoft, я читал, что новые пользователи фреймворка программирования Лицо Майкрософт они больше не смогут получить доступ к его функциям. А как быть с существующими клиентами? Спокойно: смогут рисовать на технике "только" до 30 июня 2023 г.
Это решение является частью плана Microsoft по разработке и развертыванию технологии искусственного интеллекта. Новая «более этичная» стратегия, которая обеспечит доступ к программному обеспечению для распознавания лиц только через проприетарные платформы Azure Face API, Computer Vision и Video Indexer.
Мы прекратим поддержку функций анализа лица, которые якобы определяют эмоции и черты личности, такие как пол, возраст, улыбка, растительность на лице, прическа и макияж.
Из релиза Майкрософт
Вы звоните им, если хотите эмоций
Излишне говорить, что вы можете себе представить: доступ к функциям с конфиденциальными атрибутами открывает широкий спектр возможностей для злоупотреблений. Отбор людей на основе этих параметров может подвергнуть их предрассудкам, дискриминации или несправедливому отказу в услугах.
По мере того, как ИИ становится мощнее, и чем быстрее он становится разумным (независимо от того, это еще не так) требует внимания. Крупным компаниям пора предпринять шаги, чтобы гарантировать, что конфиденциальность и информация потребителей не будут скомпрометированы, а эта технология не будет использоваться в злонамеренных целях.