Сверните проклятие: как злоупотребление вашим искусственным интеллектом может стоить вам работы

Вы когда-нибудь ругались на Siri, Alexa или Google за неспособность понять ваши слова? Ты не одинок. Мы можем быть виновны в лоббировании оскорбления или двух

сами.

Но мы все должны быть осторожны.

Хотя на другом конце вашего оскорбления нет действительного человека, эти нецензурные слова не исчезают и в пустоте. Наши бессмысленные зазубрины передаются через сеть на удаленные серверы. То, как мы относимся к цифровым личным помощникам, может научить их худшему из человечества, и это может заставить некоторые компании считать некоторых из нас слишком расстроенными, чтобы их нанимать.

Оказывается, то, что мы можем считать безобидным подшучиванием, вовсе не так безобидно.

Они учатся у нас

Сири вышла на сцену в 2011 году, а через год появился Google Now. К 2014 году у Microsoft была Кортана. В том же году Amazon сунула искусственный интеллект под названием Alexa в пластиковую трубку, которую люди могли оставить на своих столешницах. Google и Apple с тех пор сделали то же самое. Технологические гиганты стремительно ищут способы превратить искусственный интеллект в готовые к употреблению продукты

,

Эти цифровые личные помощники могут показаться зрелыми. У них могут даже быть моменты, которые восхищают нас

, Но они подростки. Они очень грамотные малыши, и они активно учатся на информации, которую мы им предоставляем. Как и компании, которые делают их.

Команда Siri работает над Viv (в настоящее время принадлежит Samsung), цифровым помощником, который интегрируется со сторонними сервисами, такими как Weather Underground и Uber, чтобы предоставить спикерам более подробные ответы. Демонстрации на сцене показывают, что Вив отвечает на вопросы, которые мы задаем другим людям, а не на язык, который мы подбираем для машин. Это результат изучения того, как люди используют язык.

Цифровые личные помощники — это не то, что большинство из нас представляет, когда мы изображаем искусственный интеллект. В отличие от ELIZA, компьютерной программы 1960-х годов, которая имитирует естественный язык (вы можете попробовать поговорить с ним онлайн), эти ИИ не слишком много «думают» о себе. Эта работа полностью загружена через Интернет.

Есть несколько шагов к процессу.

Первый компонент — распознавание речи. Устройство либо загружает прямую запись, либо переводит ваши слова в текст, который он может отправить на удаленные серверы (Apple, Google, Amazon, кто угодно). Вот где происходит волшебство. Вернее, программное обеспечение ищет в базе данных подходящий ответ. Затем он передает эту информацию обратно к личному помощнику.

Вкратце: кто-то задает вам вопрос, вы спрашиваете Сири, а затем Сири спрашивает серверы Apple. Серверы дают Сири ответ, она отвечает вам, и вы либо счастливы, либо ушли, решая, как справиться с разочарованием.

,

Эти базы данных не просто содержат ответы. Некоторые хранят записи голоса, которые помогают компьютеру ориентироваться во многих нюансах разных диалектов. Эта информация не только помогает ботам понять нас. Facebook использовал тысячи переговоров на естественном языке между двумя людьми, чтобы научить чат-мессенджеров вести переговоры.

Мы подаем хороший пример?

Это не единственные ИИ, которые учатся тому, как мы говорим.

В прошлом году Microsoft выпустила чат-бота на Twitter, Kik и GroupMe с целью симуляции американской девочки-подростка. Через несколько часов «Тай» согласился с Гитлером и поддерживал всевозможные оскорбительные высказывания. Microsoft отключила Tay до того, как день закончился.

Хотя Тай был провалом, это не замедлило распространение чат-ботов. Вы можете найти их в социальных сетях, таких как Facebook и Snapchat, наряду с клиентами обмена сообщениями, такими как HipChat и Slack. Некоторые вокруг для разговора. Другие подключают вас к услугам. Некоторые из этих ботов более безопасны, потому что они не пытаются имитировать естественную беседу, потому что сейчас машинам не обязательно подражать тому, как мы разговариваем.

Мы точно не подаем лучший пример для обучения ботов. Профессор колледжа Миссурийского государственного университета Шерил Брахнам провела исследование, сделав вывод, что от 10 до 50 процентов изученных взаимодействий показали, что люди оскорбляют или иным образом злят компьютерных помощников (из которых цифровые личные помощники являются только одним типом). Это очень много. Некоторые родители чувствуют вину за то, что произнесли хоть одно плохое слово перед своими детьми. Это далеко от того, что половина их взаимодействий была негативной.

Те чат-боты Facebook Messenger, о которых я упоминал ранее? Они не только научились вести переговоры, изучая естественный язык, но и научились лгать.

Ваш будущий работодатель может наблюдать

В будущем мы могли бы достичь точки, когда общение с ботами может стоить нам работы. Согласно Harvard Business Review, этот сдвиг может произойти, когда мы перейдем от просмотра плохо обработанного бота как сломанного мобильного телефона и больше похожего на выгнанного котенка. Неуважение к боту компании может привести к увольнению.

концепция чатботаИзображение предоставлено: Chatbot Concept через Shutterstock

Это не означает, что работники или работодатели начнут рассматривать ботов как очаровательных живых существ. Тем не менее, они могут быть достаточно разумными, чтобы плохо обращаться с ними, чтобы они казались непрофессиональными и контрпродуктивными. Если вы менеджер, злоупотребление ИИ может вызвать вас в отдел кадров для плохого руководства.

Это звучит слишком гипотетически? Подумайте, что мы уже знаем, что происходит. Все, что мы печатаем или говорим этим помощникам, отправляется через Интернет, и мы на самом деле не знаем, что с ними будет потом. Большая часть этой информации заносится в журнал. Даже если эта информация не всегда привязана к вашей учетной записи, она все равно сохраняется.

Google технически прозрачен в этом, но это не делает это очевидным. Такого рода, если сбор данных расширяет определение наличия чьего-либо согласия перед их записью.

Эти собранные данные сейчас могут показаться безвредными, но ничто не мешает техническим гигантам в конечном итоге составить подробные портфели данных о каждом из нас, которые будущие работодатели, банки и другие организации могут проверить перед тем, как вступить с нами в контакт, подобно отчету о кредитных операциях.

Правоохранительные органы тоже следят

В деле с участием человека из Арканзаса, обвиняемого в убийстве своего друга (бывшего сотрудника полиции), прокурор пытался использовать записи с «Эхо Амазонки» в качестве доказательства. Amazon отклонил запрос, но это только отчасти утешительно. Что нервирует, так это то, что Amazon хранит данные в первую очередь. С тех пор подозреваемый предоставил доступ к этим данным.

Я упомянул, что компании могут проверить наши записи данных, прежде чем взаимодействовать с нами. В случае с правоохранительными органами, они уже видят эту информацию. Нужно ли АНБ собирать сами данные?

может ли он полагаться на частный сектор для сбора этой информации для них? Должны ли мы доверять кому-либо с таким большим количеством данных о каждом из нас?

В данные включены не только то, что мы искали или команды, которые мы выпустили, но и то, как мы это сделали. Мы не просто даем представление о наших интересах и действиях — мы даем другим посмотреть, как мы действуем. То, что происходит между вами и Алекса, не остается между вами и Алекса.

Что мы говорим, имеет значение

В то время как Тэй должен был уйти в тайм-аут, Microsoft нашла ошеломительный успех с другим ботом. Его зовут Сяоице. В Китае и Японии этот бот взаимодействовал с более чем 40 миллионами человек. То, что Сяоице не самоуничтожился, частично объясняется различием в культуре. В Китае некоторые виды речи не допускаются в Интернете.

Теперь боты начали сами заниматься охраной. Социальные сети начинают использовать ботов, чтобы сократить ненавистнические высказывания. Возможно, мы не говорим напрямую с этими ботами, но они все еще изучают нашу речь, чтобы узнать, что можно квалифицировать как насилие.

Независимо от того, как вы подходите к вопросу, что мы говорим и как мы говорим, это имеет значение. Боты и компании, которые их производят, слушают. Когда-нибудь наши работодатели могут присоединиться к ним. И если бы компьютеры могли заменить нас в будущем, разве мы не хотели бы, чтобы они были хорошими?

Как вы реагируете, когда цифровые личные помощники терпят неудачу? Вы относитесь к ним так, как будто у них есть чувства? Вас волнует, если кто-то следит за тем, что вы говорите? Что вы видите в качестве ответственного пути вперед? Человек будет следить за вашими комментариями ниже.

Кредит изображения: deagreez1 / Depositphotos

Ссылка на основную публикацию
Adblock
detector