Алека је инсталирана на преко 100 милиона уређаја широм света, који током процеса добијају милијарде корисничких упита. Као и сви дигитални асистенти, Алека се ослања на моделе података да пруже боље одговоре, али изгледа да је и Амазон дигиталном асистенту пружио помоћ у облику људских прегледа. Истраживање Блоомберга открило је да Амазон има глобални тим који преписује и обележава Алека снимке из целог света како би „отклонио празнине у Алекаинем разумевању људског говора“ и омогућио помоћнику да боље одговори на ваше упите.
Публикација је открила да Амазон запошљава хиљаде људи широм света - и извођачи и запослени са пуним радним временом - да прегледају Алека снимке, а тимови су распоређени широм Бостона, Костарике, Индије и Румуније. Према неименованом извору, сваки рецензент анализира преко 1.000 аудио снимака током деветочасовне смене, бележећи их и враћајући их назад у систем да побољшају Алека-ове одговоре. Из Блоомберга:
Један радник у Бостону рекао је да је минирао нагомилане гласовне податке за одређене изговоре попут "Таилор Свифт" и напоменуо их да назначи да претраживач значи музичког уметника.
Повремено слушаоци покупе ствари које би власници Ецха вероватно радије остали приватни: нека жена пева лоше под кључем под тушем, рецимо, или дете које вришти за помоћ. Тимови користе интерне цхат собе за дељење датотека када им је потребна помоћ при анализирању збуњене речи - или наилазе на забаван снимак.
Публикација је такође открила да запослени наилазе на снимке који су узнемирујуће природе:
Понекад чују снимке које сматрају узнемирујућим или евентуално криминалним. Двоје радника рекли су да су покупили сексуално злостављање. Када се нешто такво догоди, они могу да размењују искуства у унутрашњој соби за ћаскање као начин ослобађања од стреса.
Амазон каже да су успостављени поступци које радници треба да поштују када чују нешто узнемирујуће, али двојица запослених у Румунији рекли су да су им, након што су затражили смернице за такве случајеве, рекли да није посао Амазона да се мешају.
Снимке немају пуно име или адресу корисника, али садрже корисничко име, број рачуна и серијски број уређаја. Амазон је раније споменуо да се ослања на обраду природног језика како би обучио Алека, али је за Блоомберг признао да користи људски елемент да напише „мали узорак Алека снимка гласа:“
Озбиљно схватамо сигурност и приватност личних података наших купаца. Аннотирамо само изузетно мали узорак Алека снимка гласа како бисмо побољшали корисничко искуство. На пример, ове информације помажу нам да обучимо наше системе за препознавање говора и разумевање природног језика, тако да Алека може боље да разуме ваше захтеве и осигура да услуга функционише добро за све.
Имамо строге техничке и оперативне мере заштите и имамо политику нулте толеранције према злоупотреби нашег система. Запослени немају директан приступ информацијама које могу идентификовати особу или рачун као део овог тока рада. Све информације третирају се с великом повјерљивошћу и користимо мултифакторску провјеру аутентичности да бисмо ограничили приступ, шифрирање услуге и ревизије нашег контролног окружења да бисмо их заштитили.
Није само Амазон окренут људима који помажу у развоју свог дигиталног асистента. Блоомберг је открио да Аппле такође има људски тим који проверава да ли Сири тумачење захтева одговара ономе што су корисници затражили. Гоогле има рецензенте који обучавају Ассистант-а, али клипови немају никакве личне информације и сам звук је искривљен да спречи било какву идентификацију.