Air Canada твърди, че не носи отговорност за халюцинациите на собствения си чатбот

  Сцена на изпотяване на самолет

Кога ще го наречем, фамилия? Кога най-накрая ще признаем, че чатботовете и AI всъщност не могат да вършат работата на хората? Колко измами , PR катастрофи , и публични катастрофи ще отнеме, преди най-накрая да кажем: „Да, знаеш ли какво? Да разчитаме на безмозъчни роботи за цялото си изкуство и знания може би не е страхотната идея, която смятахме, че е.“

Препоръчани видеоклипове

Най-новата AI катастрофа? Е, на няколко седмици е, така че не е толкова скорошен, колкото Копия на Уили Уонка, генерирана от AI , но все още е доста удивително. Човек на име Джейк Мофат трябваше да лети до Торонто, след като баба му почина, затова попита чатбота на Air Canada как работят процентите на тежка загуба. Чатботът му каза да купи билет на пълна цена и след това да поиска частично възстановяване на сумата в рамките на 90 дни, което той направи, като се увери, че направи екранна снимка на насоките на чатбота.

Когато обаче дойде време да получи възстановяването, Air Canada каза на Moffatt, че неговият чатбот греши. Виждате ли, генеративният AI – технологията зад неща като чатботове за обслужване на клиенти – е податлив на това, което се нарича „халюцинации“ или информация, която AI създава. Миналата година, например, няколко адвокати попадна в дълбоки лайна когато накараха ChatGPT да напише текста на съдебно дело вместо тях и след това разбраха, че цитира куп съдебни дела, които всъщност не съществуват. AI не може да направи разлика между вярна и невярна информация. Всичко, което може да направи, е да ремиксира съществуващ текст в нещо, което звучи правдоподобно.

Невероятно, авиокомпанията твърди, че бъркотията е била Вината на Мофат защото не е сверил насоките на чатбота с официалната политика на авиокомпанията. Според мотивите на авиокомпанията Мофат е трябвало да знае, че на предоставения от Air Canada инструмент за обслужване на клиенти не може да се вярва. Предполага се, че ако крилата паднат от самолета по време на полет, Air Canada ще упрекне клиентите, че са се качили на него.

Air Canada отказа да възстанови сумата, така че Мофат заведе авиокомпанията в съда и спечели. Защитата на Air Canada е още по-абсурдна от първоначалния й отказ да възстанови сумата. Според авиокомпанията чатботът – който, нека подчертая, авиокомпанията използва на собствения си уебсайт, за да отговаря на въпросите на клиентите – е „ отделно юридическо лице която е отговорна за собствените си действия.'

Ако човешки служител даде на клиент невярна информация, тогава Air Canada би могла да възстанови парите на клиента и на свой ред да потърси отговорност от служителя. Но да твърдите, че бот, който не печели заплата и прави само това, за което сте го програмирали, е свое собствено юридическо лице? Махай се от тук с това.

обичам те 3000

Може ли просто да спрем? Да спрем да произвеждаме планини от изкуствен интелект, да спрем да заменяме способните хора с некомпетентни ботове, да спрем да се преструваме, че изкуственият интелект ще направи някак си обществото по-добро? Не работи, приятели. Отложи го. AI само влошава всичко.

(чрез Ars Technica , представено изображение: Paramount Pictures)

Автор

Джулия Гласман Джулия Гласман (тя/тя) притежава магистърска степен по външни работи от писателската работилница на Айова и отразява феминизма и медиите от 2007 г. насам. Като щатен писател за DiariodeunchicotraBajador, Джулия отразява филми на Marvel, фолклорни ужаси, научна фантастика и фентъзи, филми и телевизия , комикси и всички вещици. Под псевдонима Аса Уест тя е автор на популярния журнал „Петте принципа на зеленото магьосничество“ (Gods & Radicals Press). Можете да разгледате повече от нейното писане на https://juliaglassman.carrd.co/.</a>