Informácie

Aké počítačové algoritmy EEG analýzy existujú?

Aké počítačové algoritmy EEG analýzy existujú?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Získal som čelenku EEG komerčnej kvality a pokúšam sa pozrieť na údaje, ktoré vydáva. Čelenka kvantifikuje surový signál EEG z jedného suchého senzora na čele do radu pásiem EEG (alfa, beta atď.). Problém, na ktorý narážam, je, že hodnoty pásiem EEG skáču pomerne výrazne z jedného dátového bodu do druhého (intervaly čítania 0,05 sekundy). Okrem toho existujú artefakty súvisiace s očami.

Chcel by som použiť nejaký algoritmus alebo štatistickú analýzu, aby som zistil, ako sa pásma EEG správajú v určitom časovom intervale. Dúfam, že uvidíme, či niektoré pásmo EEG štatisticky stúpa alebo je potlačené počas 5-15 minút. Vidieť okamžité skoky v jednotlivých čítaniach tieto informácie neprenáša.

Napríklad viem, že pre Actigrafické štúdie existujú algoritmy na skórovanie spánku, ako napríklad Coleov algoritmus, ktorý sa zameriava na predchádzajúce 4 minúty, súčasnú minútu a 2 minúty v budúcnosti na získanie minúty údajov o aktigrafii:

SleepScoreConstant*(550*4minAgo + 378*3minAgo + 413*2minAgo + 699*1minAgo + 1736*CurrentMinute + 287*1minAhead + 309*2minAhead)

Existuje nejaký podobný algoritmus na analýzu pásma EEG?

Prípadne by pomohlo, keby ste navrhli realistické časové okno, počas ktorého možno pásma EEG štatisticky analyzovať u bdelých subjektov: je to 20 sekúnd? 5 minút? 90 minút?


http://sccn.ucsd.edu/eeglab/

http://chronux.org

sú dve knižnice s množstvom funkcií na analýzu údajov eeg a emg


Tiež FieldTrip pre Matlab a MNE pre Python


Úvod

Klasifikácia emócií vyžaduje štúdium rôznych faktorov a premenných vrátane emócií šťastia alebo hnevu zdravého rozumu s rôznym stupňom. Tieto vlastnosti a intenzity sú pre ľudstvo druhou prirodzenosťou a ich detekcia softvérom na rozpoznávanie tváre sa ukázala byť náročná a nákladná [1].

Elektroencefalogram (EEG) je široko používanou neuro-zobrazovacou metódou, ktorá môže merať potenciálne zmeny napätí spôsobené vystreľovaním elektrických impulzov neurónov, detegovaných na temene hlavy a zachytených zariadením obsahujúcim vzor elektród. Signály EEG sú spravidla kategorizované na základe ich frekvencie a sú rozdelené do piatich hlavných pásiem: delta pásmo od 0,5 do 3 Hz, pásmo theta od 4 do 7 Hz, alfa pásmo od 8 do 13 Hz, beta pásmo 14 až 30 Hz a pásmo gama viac ako 30 Hz. Každé z týchto spektier je vo všeobecnosti spojené s nejakým druhom činnosti, ako je pohyb prstov, spánok, aktívne myslenie alebo riešenie problémov. EEG sa používa v počítačových rozhraniach mozgu (BCI), ktoré umožňujú ľudskému subjektu a počítaču komunikovať bez kontaktu. Aplikácie tohto výskumu získavajú na popularite v oblasti afektívnych počítačov, ktorých cieľom je porozumieť stavom ľudskej mysle [2]. V súčasnej dobe sú dobre známe rôzne paradigmy BCI založené na EEG [3].

Emócie sú všadeprítomné a sú základným aspektom ľudskej existencie [1]. Správanie subjektu môže výrazne ovplyvniť spôsob jeho komunikácie a priamo ovplyvniť jeho každodenné činnosti. Emócie tiež zohrávajú zásadnú úlohu v každodennej komunikácii. Jednoduché vyslovenie „ok“ môže mať iný význam v závislosti od kontextu, ktorý môže sprostredkovať ľútosť, smútok, hnev, šťastie alebo dokonca znechutenie, ale úplný význam je možné pochopiť pomocou výrazov tváre, gest rúk a iných neverbálnych komunikačných prostriedkov. Výskum v oblasti BCI na zisťovanie pocitov pomocou počítačov zaznamenal za posledné dve desaťročia exponenciálny rast. Príkladom tohto výskumu je použitie údajov zo senzorov EEG na detekciu emócií [4] spolu s použitím tvárových markerov alebo ich fúzia s telesnými signálmi, ako je rozšírenie zrenice [5]. Meranie emócií priamo z mozgu je nový prístup a teoreticky môže eliminovať klamanie subjektov alebo neschopnosť prejaviť emócie v dôsledku postihnutia, čo naznačuje, že extrakciu znakov zo signálov EEG je možné ľahšie rozlíšiť.

Tento výskum si kladie za cieľ uplatniť rôzne klasické algoritmy strojového učenia a porovnať ich na základe hodnoty p, minimálnej chyby, presnosti, presnosti a skóre f, s cieľom ďalej zlepšiť výkon s redukciou rozmerov a získať skryté informácie, ako je navrhnuté v [ 6, 7]. Klasické algoritmy strojového učenia majú v konkrétnych aplikáciách spravidla lepší výkon než umelé neurónové siete (ANN) a hlboké neurónové siete (DNN), pretože získavajú lepšiu presnosť. Na zúženie stupňa každej vzorky boli použité tri rôzne triedy pozitívnych, neutrálnych a negatívnych.

Nasledujú niektoré z technických prínosov pre oblasť neurovedy a informatiky, ktoré sú výsledkom tohto projektu:

Súbory údajov sú vopred spracované a skombinované do nového veľkého súboru údajov.

Metodika pracovného toku je ľahko reprodukovateľná.

Identifikácia najlepšieho klasifikačného algoritmu, ktorý sa má použiť pre každú emóciu.

Presnosť každého klasifikačného modelu pre údaje EEG.

Prístup údajov k časovej segmentácii prináša lepšie vlastnosti pre klasifikátory.

Analýza a vizualizácie súboru údajov „Analýza emócií pomocou eeg, fyziologických a video signálov“ (DEAP).

Je zaujímavé poznamenať, že súbor údajov DEAP je agregáciou rôznych údajov, pretože pri zbere údajov boli použité rôzne rýchlosti vzorkovania a boli vykonané rôzne typy testov. Agregácia týchto údajov do 1 komplexnej množiny údajov ukazuje veľký objem údajov, najmä keď sa do množiny údajov pridajú záznamy tváre. Je zaistené, že s týmito surovými údajmi nemožno manipulovať, pretože súbory sú určené len na čítanie, okrem toho bol zber údajov vykonaný 5 krát pre každý test, aby sa zaistili dôveryhodné údaje.

Nasledujúce časti článku vysvetľujú podrobný pracovný postup a organizáciu vykonaného výskumu. Súvisiace práce/prehľad literatúry sú vysvetlené v časti „Súvisiaca práca“. Algoritmy, metodiky v širšom zmysle sú vysvetlené v časti „Predbežné opatrenia“. Navrhovaná postupná implementácia algoritmu a vysvetlenia a pomocnosť podprogramov sú uvedené v časti „Metódy“. Popisy množín údajov sú uvedené v sekcii „Údaje“. „Experimentálne nastavenie“ definuje odporúčaný hardvér a softvér použitý na replikáciu výsledkov. V časti „Experimentálne výsledky“ sa diskutuje o experimentálnych výsledkoch. Záverečné poznámky a budúci výskum sú uvedené v časti „Záver“.


V závislosti od kódu: výhody a nevýhody veku algoritmu

(filistimlyanin/iStock.com)

Algoritmy sú pokyny na riešenie problému alebo dokončenie úlohy. Recepty sú algoritmy, rovnako ako matematické rovnice. Počítačový kód je algoritmický. Internet beží na algoritmoch a všetky online vyhľadávania sa vykonávajú prostredníctvom nich. Vďaka algoritmom vie e -mail, kam ísť. Aplikácie pre smartfóny nie sú nič iné ako algoritmy. Počítačové hry a videohry sú algoritmickým rozprávaním príbehov. Webové zoznamky a webové stránky s odporúčaním kníh a cestovaním by bez algoritmov nefungovali. Mapovacie systémy GPS dostávajú ľudí z bodu A do bodu B pomocou algoritmov. Umelá inteligencia (AI) nie je nič iné ako algoritmy. Materiál, ktorý ľudia vidia na sociálnych médiách, im prinášajú algoritmy. V skutočnosti všetko, čo ľudia vidia a robia na webe, je výsledkom algoritmov. Zakaždým, keď niekto zoradí stĺpček v tabuľke, sú k dispozícii algoritmy a väčšina finančných transakcií sa dnes vykonáva pomocou algoritmov. Algoritmy pomáhajú pomôckam reagovať na hlasové príkazy, rozpoznávať tváre, triediť fotografie a stavať a riadiť autá. Algoritmy zneužívania hackerov, kyberútokov a kryptografických kódov. V súčasnosti sa objavujú algoritmy samoučenia a programovania, takže je možné, že v budúcnosti budú algoritmy písať mnoho, ak nie väčšinu algoritmov.

Algoritmy sú často elegantné a neuveriteľne užitočné nástroje používané na plnenie úloh. Sú to väčšinou neviditeľné pomôcky, ktoré stále neuveriteľným spôsobom rozširujú ľudské životy. Niekedy však aplikácia algoritmov vytvorených s dobrým úmyslom vedie k nezamýšľaným následkom. Nedávne správy nadväzujú na tieto obavy:

  • 7. októbra 2016 hodnota britskej libry v sekundách klesla o 6,1%, čiastočne kvôli obchodom s menami spusteným algoritmami.
  • Inžinieri spoločnosti Microsoft vytvorili na jar minulého roku twitterového robota s názvom „Tay“ v snahe chatovať s Millennials tým, že reagovali na ich výzvy, ale v priebehu niekoľkých hodín vychrlil rasistické, sexistické a popierajúce tweety popierajúce holokaust na základe algoritmov, vďaka ktorým sa „naučili“ ako reagovať na ostatných podľa toho, čo sa na ňom tweetovalo.
  • Facebook sa pokúsil vytvoriť funkciu na zvýraznenie trendových tém z celého webu v informačných kanáloch ľudí. Najprv to nechalo tím ľudí upraviť funkciu, ale kontroverzia vypukla, keď niektorí obvinili platformu z zaujatosti voči konzervatívcom. Facebook potom prácu zmenil na algoritmy, aby zistil, že nedokážu rozpoznať skutočné správy od falošných správ.
  • Cathy O'Neil, autorka Zbrane deštrukcie matematiky: Ako veľké dáta zvyšujú nerovnosť a ohrozujú demokraciu, poukázal na to, že prediktívna analýza založená na algoritmoch má tendenciu trestať chudobných, pričom ako príklad uvádza algoritmické postupy prijímania zamestnancov.
  • Dobre mienené algoritmy môžu sabotovať zlí herci. 21. októbra 2016 postihlo východné pobrežie USA spomalenie internetu po tom, čo hackeri bombardovali Dyn DNS, obsluhujúceho internetový prenos, informáciami, ktoré preťažili jeho okruhy a spustili novú éru internetových útokov poháňaných zariadeniami pripojenými k internetu. Potom, čo expert na bezpečnosť internetu Bruce Schneier v septembri varoval, že „Niekto sa učí, ako zbúrať internet“. A zneužívanie algoritmu Facebook News Feed a všeobecné vyhlasovanie falošných správ online sa stali kontroverznými v priebehu prezidentských volieb v USA v roku 2016.
  • Vedec Andrew Tutt vyzval na „FDA pre algoritmy“ a poznamenal: „Vzostup stále komplexnejších algoritmov si vyžaduje kritické premýšľanie o tom, ako najlepšie predchádzať škodám, ktoré spôsobujú, odrádzať od nich a ako ich kompenzovať ... Algoritmická regulácia bude vyžadovať federálnu jednotnosť, odborný úsudok, politickú nezávislosť a kontrolu pred uvedením na trh, aby sa zabránilo-bez potlačovania inovácií-zavádzaniu neprijateľne nebezpečných algoritmov na trh. “
  • Biely dom vydal v októbri 2016 dve správy podrobne popisujúce pokrok algoritmov a umelej inteligencie a plány na riešenie problémov, ktoré s tým súvisia, a vydal decembrovú správu, v ktorej načrtol niektoré z potenciálnych účinkov automatizácie poháňanej AI na americký trh práce a ekonomiku .
  • 17. januára 2017 Inštitút budúcnosti života zverejnil zoznam 23 princípov prospešnej umelej inteligencie, ktorý vytvorilo stretnutie zainteresovaných vedcov na konferencii v Asimolar v Pacific Grove v Kalifornii. Medzi viac ako 1 600 signatármi boli Steven Hawking, Elon Musk, Ray Kurzweil a stovky popredných svetových vedcov v oblasti umelej inteligencie.

Používanie algoritmov sa šíri, pretože firmy a vlády vytvárajú, zachytávajú a analyzujú obrovské množstvo údajov. Niektorí to nazývajú vekom algoritmov a predpovedajú, že budúcnosť algoritmov je spojená so strojovým učením a hlbokým učením, ktoré bude stále rýchlejšie a rýchlejšie.

Aj keď mnohé posmrtné prezidentské voľby v USA v roku 2016 zaznamenali revolučný vplyv webových nástrojov na ovplyvnenie jeho výsledku, generálny riaditeľ Nadácie XPrize Peter Diamandis predpovedal, že „päť veľkých technologických trendov urobí tieto voľby krotkými“. Povedal, že pokroky v kvantovom výpočte a rýchly vývoj agentov AI a AI zabudovaných do systémov a zariadení na internete vecí povedú k hyper-stalkingu, ovplyvňovaniu a formovaniu voličov a hyper-personalizovaným reklamám a vytvoria nové spôsoby, ako skresľovať realitu a udržiavať klamstvá.

Analytici ako Aneesh Aneesh zo Stanfordskej univerzity predpokladajú algoritmy preberajúce verejné a súkromné ​​aktivity v novej ére „algokratického riadenia“, ktorá nahrádza „byrokratickú hierarchiu“. Iní, ako napríklad Harvardova Shoshana Zuboff, opisujú vznik „dozorného kapitalizmu“, ktorý organizuje ekonomické správanie v „informačnej civilizácii“.

Aby sa objasnili súčasné postoje k potenciálnym vplyvom algoritmov v nasledujúcom desaťročí, Pew Research Center a Elon University's Imagining the Internet Center uskutočnili rozsiahle zhromaždenie technologických expertov, vedcov, praktických lekárov a vládnych lídrov. Na túto otázku, čo sa stane v nasledujúcom desaťročí, odpovedalo približne 1 302:

Bude čistý celkový účinok algoritmov pozitívny pre jednotlivcov a spoločnosť alebo negatívny pre jednotlivcov a spoločnosť?

Nevedeckým prieskumom sa zistilo, že 38% týchto konkrétnych respondentov predpovedalo, že pozitívne vplyvy algoritmov prevážia nad negatívami pre jednotlivcov a spoločnosť vo všeobecnosti, zatiaľ čo 37% uvedených záporákov preváži nad kladmi, 25% uviedlo, že celkový vplyv algoritmov bude približne 50. -50, pozitívne-negatívne. [Ďalšie podrobnosti o medziach tejto vzorky nájdete v časti „O tomto získavaní odborníkov“.]

Účastníci boli požiadaní, aby vysvetlili svoje odpovede a väčšina napísala podrobné rozpracovania, ktoré poskytujú pohľady na nádejné trendy a trendy. Respondenti mohli reagovať anonymne, čo predstavuje malú väčšinu písomných vypracovaní. Tieto zistenia nereprezentujú všetky uhly pohľadu, ktoré je možné na takúto otázku položiť, ale odhaľujú širokú škálu cenných pozorovaní založených na súčasných trendoch.

V ďalšej časti ponúkame stručný prehľad siedmich kľúčových tém nachádzajúcich sa medzi písomnými spracovaniami. Po tejto úvodnej časti je oveľa hlbší pohľad na myšlienky respondentov spojené s každou z týchto tém. Všetky reakcie sú štýlovo upravované.

Téma 1: Algoritmy sa budú naďalej šíriť všade

Medzi týmito respondentmi existuje pomerne jednotná zhoda v tom, že algoritmy sú pre verejnosť spravidla neviditeľné a že v nasledujúcom desaťročí dôjde k exponenciálnemu nárastu ich vplyvu.

Reprezentatívne vyhlásenie tohto názoru pochádza z Barry Chudakov, zakladateľ a riaditeľ spoločností Sertain Research a StreamFuzion Corp. Odpovedal:

"" Ak by každý algoritmus zrazu prestal fungovať, bol by to koniec sveta, ako ho poznáme. "(Pedro Domingo Hlavný algoritmus). Fakt: Náš svet sme už obrátili na strojové učenie a algoritmy. Otázkou teraz je, ako lepšie porozumieť a riadiť to, čo sme urobili?

"Algoritmy sú užitočným artefaktom na začatie diskusie o širšom probléme účinkov asistencií podporujúcich technológie v našich životoch." Totiž, ako ich môžeme vidieť pri práci? Zvážiť a posúdiť ich predpoklady? A čo je najdôležitejšie pre tých, ktorí nevytvárajú algoritmy na živobytie - ako sa poučíme o tom, ako fungujú, kde pôsobia, aké predpoklady a predpojatosti sú im vlastné a ako ich udržať transparentné? Ako ryby v nádrži ich vidíme plávať a dávame na ne pozor.

Fakt: Náš svet sme už obrátili na strojové učenie a algoritmy. Otázkou teraz je, ako lepšie porozumieť a riadiť to, čo sme urobili?
Barry Chudakov

"Algoritmy sú novými arbitrami ľudského rozhodovania v takmer akejkoľvek oblasti, akú si dokážeme predstaviť, od sledovania filmu (rozpoznávanie emócií Affectiva) cez kúpu domu (Zillow.com) až po samoriadiace autá (Google). Deloitte Global predpovedala, že viac ako 80 zo 100 najväčších svetových spoločností zaoberajúcich sa softvérovým podnikom bude mať do svojich produktov integrované kognitívne technológie - sprostredkované algoritmami - do konca roku 2016. Ako píšu Brian Christian a Tom Griffiths v Algoritmy, podľa ktorých sa treba riadiťAlgoritmy poskytujú „lepší štandard, na základe ktorého je možné porovnávať samotné ľudské poznanie.“ Sú tiež podnetom na zváženie toho istého poznania: Ako uvažujeme a čo znamená myslieť prostredníctvom algoritmov na sprostredkovanie nášho sveta?

„Hlavným pozitívnym výsledkom je lepšie porozumenie racionálnym rozhodnutiam a v tomto prípade lepšie porozumenie sebe samému. Koniec koncov, algoritmy sú generované pokusom a omylom, testovaním, pozorovaním a prechodom na určité matematické vzorce týkajúce sa volieb, ktoré boli robené znova a znova - a to je možné použiť na ťažké voľby a problémy, najmä keď intuitívne nemôžeme byť pripravení nájdete odpoveď alebo spôsob, ako problém vyriešiť. Pravidlo 37%, optimálne zastavenie a ďalšie algoritmické závery sú príručky založené na dôkazoch, ktoré nám umožňujú používať múdrosť a matematicky overené kroky na lepšie rozhodovanie.

"Sekundárnym pozitívnym výsledkom je konektivita." V technologickej rekapitulácii toho, čo duchovní učitelia hovorili po stáročia, naše veci ukazujú, že všetko je - alebo môže byť - spojené so všetkým ostatným. Algoritmy s perzistenciou a všadeprítomnosťou hmyzu zautomatizujú procesy, ktoré si predtým vyžadovali manipuláciu a myslenie ľudí. Teraz môžu spravovať základné procesy monitorovania, merania, počítania alebo dokonca videnia. Naše auto nám môže povedať, aby sme spomalili. Naše televízie môžu navrhovať filmy, ktoré je potrebné sledovať. Obchod s potravinami môže na večeru odporučiť zdravú kombináciu mäsa a zeleniny. Siri vám pripomína, že máte výročie.

"Hlavné negatívne zmeny spočívajú v jednoduchej, ale teraz dosť ťažkej otázke: Ako môžeme vidieť a úplne porozumieť dôsledkom algoritmov naprogramovaných do každodenných činností a rozhodnutí?" Problém je v tom: Čia je to vlastne inteligencia? … Naše systémy nemajú a musíme vstavať to, čo David Gelernter nazýval „vrcholový pohľad“, schopnosť nielen vytvárať technologické riešenia, ale aj vidieť a skúmať ich dôsledky predtým, ako na nich postavíme obchodné modely, spoločnosti a trhy. silné stránky, a najmä ich obmedzenia. “

Chudakov dodal, že je to obzvlášť nevyhnutné, pretože v nasledujúcom desaťročí a ďalej: „Rozšírením zberu a analýzy údajov a výslednej aplikácie týchto informácií sa k procesom a objektom, ktoré predtým nemali, pridáva vrstva inteligencie alebo manipulácie s myslením. vrstva. Možnosti predpovede nás teda nasledujú ako domáce zviera. Výsledok: Keďže sa informačné nástroje a prediktívna dynamika čoraz viac osvojujú, náš život bude stále viac ovplyvňovaný ich inherentnými závermi a príbehmi, ktoré prinášajú. “

"Celkový vplyv všadeprítomných algoritmov je v súčasnosti nevyčísliteľný, pretože prítomnosť algoritmov v každodenných procesoch a transakciách je teraz taká veľká a je väčšinou skrytá pred zrakom verejnosti." Všetky naše systémy rozšíreného myslenia (algoritmy poháňajú softvér a konektivitu, ktoré vytvárajú systémy rozšíreného myslenia) vyžadujú viac myslenia - nie menej - a globálnejšiu perspektívu, ako sme predtým dokázali. Rozširujúci sa zber a analýza údajov a z nich vyplývajúca aplikácia týchto informácií môžu liečiť choroby, znižovať chudobu, prinášať včasné riešenia ľuďom a miestam, kde je to potrebné, a odstraňovať tisícročia predsudkov, nepodložených záverov, neľudskej praxe a ignorancie všetkých. druhy. Naše algoritmy teraz redefinujú, čo si myslíme, ako si myslíme a čo vieme. Musíme ich požiadať, aby sa zamysleli nad svojim myslením - aby hľadali nástrahy a inherentné predpojatosti skôr, ako sa dajú zapečať a ťažšie odstrániť.

"Aby sme vytvorili dohľad, ktorý by hodnotil vplyv algoritmov, musíme ich najskôr vidieť a porozumieť im v kontexte, pre ktorý boli vyvinuté." To je samo osebe vysoká objednávka, ktorá vyžaduje, aby nestranní odborníci ustupovali procesom vývoja technológie a našli modely a vzorce, z ktorých algoritmy pochádzajú. Potom, čo majú odborníci k dispozícii všetko to učenie, musia triezvo posúdiť prínosy a nedostatky alebo riziká, ktoré algoritmy vytvárajú. Kto je pripravený to urobiť? Kto má čas, rozpočet a zdroje na vyšetrenie a odporučenie užitočných postupov? Toto je popis práce 21. storočia-a medzera na trhu-pri hľadaní skutočných ľudí a spoločností. Aby boli algoritmy transparentnejšie, obežníky o výrobkoch a informáciách o výrobkoch môžu obsahovať prehľad algoritmických predpokladov, podobných nutričnému postrannému panelu, ktorý sa teraz nachádza v mnohých balených potravinárskych výrobkoch, ktorý by používateľov informoval o tom, ako algoritmy poháňajú inteligenciu v danom produkte, a o primeranom prehľad implikácií obsiahnutých v týchto predpokladoch. “

Téma 2: Dobré veci sú pred nami

Niekoľko respondentov uviedlo mnoho spôsobov, ktorými algoritmy pomôžu porozumieť obrovskému množstvu údajov, pričom poznamenali, že to prinesie prelom vo vede, nové vymoženosti a ľudské kapacity v každodennom živote a stále lepšiu schopnosť prepojiť ľudí s informácie, ktoré im pomôžu. Vykonávajú zdanlivo zázračné úlohy, ktoré ľudia nedokážu, a budú naďalej výrazne rozširovať ľudskú inteligenciu a pomáhať pri dosahovaní veľkých vecí. Reprezentatívnym zástancom tohto názoru je Stephen Downes, vedecký pracovník Národnej rady pre výskum Kanady, ktorý ako pozitívne zmeny uviedol tieto:

"Niekoľko príkladov:
Banky. Banky dnes poskytujú pôžičky na základe veľmi neúplných údajov. Je pravda, že mnoho ľudí, ktorí dnes majú nárok na pôžičku, by ich v budúcnosti nedostali. Mnoho ľudí-a pravdepodobne oveľa viac ľudí-však bude môcť v budúcnosti získať pôžičky, pretože banky sa pri posudzovaní vhodnosti vyhýbajú používaniu takých faktorov, ako sú rasa, sociálno-ekonomické pozadie, PSČ a podobne. Navyše, s väčším počtom údajov (a s interaktívnejším vzťahom medzi bankou a klientom) môžu banky znížiť svoje riziko, a tak poskytnúť viac pôžičiek a súčasne poskytovať celý rad služieb individuálne zameraných na skutočne pomoc finančným stavom osoby.

"Poskytovatelia zdravotnej starostlivosti. Zdravotná starostlivosť je významným a rastúcim nákladom nie preto, že by ľudia boli stále menej zdraví (v skutočnosti je celospoločenský opak, opak je pravdou), ale kvôli značnej réžii potrebnej na podporu stále komplexnejších systémov vrátane predpisov, poistenia, zariadení a ďalších. Nové technológie umožnia poskytovateľom zdravotnej starostlivosti presunúť značnú časť tejto záťaže na jednotlivca, ktorý bude (s pomocou systémov osobnej podpory) lepšie riadiť svoje zdravie, koordinovať a riadiť svoju vlastnú starostlivosť a vytvárať menšiu záťaž pre systém . Keďže celkové náklady na zdravotnú starostlivosť klesajú, je stále viac uskutočniteľné poskytovať zdravotné poistenie pre celú populáciu s jediným platiteľom, ktoré pozná prospešné výsledky a účinnosť v oblasti zdravia.

"Vlády.". Významná časť vlády je založená na regulácii a monitorovaní, ktoré už nebudú potrebné pri zavádzaní automatizovaných výrobných a dopravných systémov spolu so senzorickými sieťami. To zahŕňa mnoho každodenných (a často nepríjemných) interakcií, ktoré dnes s vládou máme, od dopravných priestupkov, prejavov občianskej nespokojnosti, nespravodlivého zaobchádzania v obchodných a právnych procesoch a podobne. Jednoduchý príklad: Jedným z najtrvalejších politických problémov v USA je prekročenie politických hraníc v prospech súčasných úradujúcich. Volebné divízie vytvorené algoritmom do značnej miery eliminujú gerrymandering (a keď sú otvorené a diskutabilné, môžu byť upravené tak, aby sa zlepšil tento výsledok). “

Ukážka ďalších odpovedí od anonymných respondentov:

Účinnosť algoritmov povedie k väčšej kreativite a sebavyjadreniu.

  • "Algoritmy získavajú znalosti automatizovaným spôsobom oveľa rýchlejšie, ako je tradične možné."
  • "Algoritmy môžu skrachovať v databázach dostatočne rýchlo, aby zmiernili byrokraciu a byrokraciu, ktoré v súčasnosti spomaľujú pokrok."
  • "Uvidíme menšie znečistenie, lepšie zdravie ľudí, menej ekonomického odpadu."
  • "Algoritmy majú potenciál vyrovnať prístup k informáciám."
  • "Účinnosť algoritmov povedie k väčšej kreativite a sebavyjadreniu."
  • "Algoritmy môžu znížiť problémy s dopravou, môžu identifikovať preťaženie a alternatívne časy a cesty."
  • "Samoriadiace autá by mohli dramaticky znížiť počet nehôd, ktoré máme za rok, a tiež zlepšiť kvalitu života väčšiny ľudí."
  • „Lepšie zacielené poskytovanie správ, služieb a reklamy.“
  • "Sociálna veda založená na dôkazoch pomocou algoritmov na zber údajov zo sociálnych médií a kliknutí."
  • "Vylepšená a proaktívnejšia policajná práca so zameraním na oblasti, v ktorých je možné predchádzať kriminalite."
  • "Menej nerozvinutých oblastí a viac medzinárodných obchodných výmen."
  • "Algoritmy zmierňujú trenie v rozhodovaní, nákupe, doprave a vo veľkom množstve ďalších spôsobov správania."
  • "Roboti budú plniť príkazy na nákup vašich akcií." Digitálni agenti nájdu materiály, ktoré potrebujete. “
  • "Všetky chyby je možné opraviť." To bude znamenať, že algoritmy budú s túžbou ľudstva účinnejšie iba s postupom času. “

Témy objasňujúce obavy a výzvy

Účastníci tejto štúdie sa vo veľkej miere zhodli na tom, že množstvo pozitív zrýchľujúcej sa závislosti od kódu bude pokračovať v šírení algoritmov, ale ako pri všetkých veľkých technologických revolúciách, aj tento trend má temnú stránku. Väčšina respondentov poukázala na obavy, pričom väčšina z nich v záverečných piatich zastrešujúcich témach tejto správy má všetky podtémy.

Téma 3: Ľudskosť a ľudský úsudok sa strácajú, keď sa údaje a prediktívne modelovanie stanú prvoradými

Pokroky v algoritmoch umožňujú technologickým spoločnostiam a vládam zhromažďovať, ukladať, triediť a analyzovať rozsiahle súbory údajov. Odborníci na túto agitáciu poznamenali, že tieto algoritmy sú navrhnuté predovšetkým na optimalizáciu účinnosti a ziskovosti bez toho, aby sa veľa premýšľalo o možných spoločenských dopadoch modelovania a analýzy údajov. Títo respondenti tvrdili, že ľudia sú považovaní za „vstup“ do procesu a nie sú vnímaní ako skutočné, mysliace, cítiace a meniace sa bytosti. Hovorí sa, že to vytvára chybnú spoločnosť riadenú logikou a že ako sa proces vyvíja-to znamená, že keď algoritmy začnú písať algoritmy-ľudia môžu vypadnúť zo slučky a nechať „roboty rozhodnúť“. Predstaviteľ tohto pohľadu:

Bart Knijnenburg, odborný asistent v oblasti výpočtovej techniky zameranej na človeka na Clemson University, odpovedal: „Algoritmy budú ťažiť z pohodlia a zisku, čím diskriminujú určité populácie, ale tiež narúšajú skúsenosti všetkých ostatných. Cieľom algoritmov je zapadnúť niektorí našich preferencií, ale nie nevyhnutne všetky z nich: V podstate predstavujú karikatúru nášho vkusu a preferencií. Mám najväčší strach z toho, pokiaľ nevyladíme naše algoritmy samoaktualizácia„Bude jednoducho príliš vhodné, aby sa ľudia riadili radami algoritmov (alebo aby bolo príliš ťažké ich prekročiť), premieňali tieto algoritmy na sebapĺňajúce sa proroctvá a používatelia na zombie, ktorí konzumujú výlučne ľahko konzumovateľné položky. . ”

Anonymný futurista povedal: „To sa deje od začiatku priemyselnej revolúcie. Zakaždým, keď navrhnete ľudský systém optimalizovaný z hľadiska účinnosti alebo ziskovosti, dehumanizujete pracovnú silu. Táto dehumanizácia sa teraz rozšírila do nášho zdravotníctva a sociálnych služieb. Keď odstránite ľudstvo zo systému, v ktorom sú zahrnutí ľudia, stanú sa obeťami. "

Ďalší anonymný respondent napísal: „Jednoducho nemôžeme zachytiť každý dátový prvok, ktorý predstavuje rozsiahlosť osoby a jej potreby, priania, nádeje, túžby. Kto zbiera aké dátové body? Vedia vôbec ľudské bytosti, ktoré dátové body odrážajú, alebo len súhlasili so zmluvnými podmienkami, pretože nemali inú možnosť? Kto zarába peniaze na údajoch? Ako má niekto vedieť, ako sa jeho údaje masírujú a na aké účely odôvodňuje, čo sa končí? Neexistuje žiadna transparentnosť a dohľad je fraška. To všetko je skryté pred zrakom. Budem vždy presvedčený, že údaje budú použité na obohatenie a/alebo ochranu ostatných, a nie jednotlivca. Je to základná povaha ekonomického systému, v ktorom žijeme. “

Ukážka úryvkov k tejto téme od ostatných respondentov (podrobnosti si prečítajte v úplnejšej verzii v úplnej správe):

Algoritmy sú schopné formovať rozhodnutia jednotlivcov bez toho, aby o tom vedeli, čo dáva tým, ktorí majú nad algoritmami kontrolu, nespravodlivé postavenie moci.

  • "Potenciál dobra je obrovský, ale potenciál zneužitia a zneužívania - úmyselný a neúmyselný - môže byť väčší."
  • „Spoločnosti sa snažia maximalizovať zisk, nie maximalizovať spoločenské dobro. Horšie je, že hľadanie zisku prebaľujú ako spoločenské dobro. Blížime sa k vrcholu vlny, ktorej základnou stránkou je nová etika manipulácie, marketingu a takmer úplný nedostatok súkromia. “
  • "To, čo už dnes vidíme, je, že v praxi veci ako" diferenciálne ceny "nepomáhajú spotrebiteľovi, ale pomáhajú spoločnosti, ktorá predáva veci atď."
  • "Jednotlivé ľudské bytosti budú pasené ako dobytok s predvídateľne deštruktívnymi výsledkami v oblasti právneho štátu, sociálnej spravodlivosti a ekonomiky."
  • "Existuje iba stimul na ďalšie zahmlievanie prítomnosti a operácií algoritmického tvarovania komunikačných procesov."
  • "Algoritmy ... zosilňujú negatívne vplyvy dátových medzier a vylúčení."
  • "Algoritmy majú schopnosť formovať rozhodnutia jednotlivcov bez toho, aby o tom vedeli, čo dáva tým, ktorí majú nad algoritmami kontrolu, nespravodlivé postavenie moci."
  • "Skutočnosť, že internet možno pomocou algoritmov použiť takmer na čítanie našich myslí, [znamená], že tí, ktorí majú prístup k algoritmom a ich databázam, majú obrovskú príležitosť manipulovať s veľkými skupinami obyvateľstva."
  • "Nedostatok zodpovednosti a úplná neprehľadnosť sú desivé."
  • "Podľa utilitaristických metrík nemá algoritmické rozhodovanie žiadnu negatívnu stránku toho, že bude mať za následok večné nespravodlivosti voči veľmi menšinovým triedam, ktoré vytvára, budú ignorované." Spoločné dobro sa stalo zdiskreditovaným, zastaraným pozostatkom minulosti. “
  • "V ekonomike, v ktorej stále viac dominuje malá, veľmi privilegovaná a izolovaná časť populácie, bude do značnej miery reprodukovať nerovnosť v ich prospech." Kritika bude zľahčovaná a odmietaná kvôli dymu digitálnej „logiky“ v tomto procese.
  • „Algoritmy sú nové zlato a je ťažké vysvetliť, prečo je priemerné„ dobro “v rozpore s individuálnym„ dobrým “.
  • „Negatívny individuálny vplyv budeme interpretovať ako nevyhnutné vedľajšie poškodenie„ pokroku “.
  • "To zabije miestnu inteligenciu, miestne zručnosti, menšinové jazyky, miestne podnikanie, pretože väčšina dostupných zdrojov bude vyčerpaná globálnymi konkurentmi."
  • "Algoritmy v minulosti vytvoril programátor." V budúcnosti ich pravdepodobne vyvinú inteligentné/učebné stroje…. Ľudia stratia vo svete agentúru. “
  • "Bude to len horšie, pretože neexistuje žiadna" kríza ", na ktorú by bolo možné reagovať, a teda nielen motivácia zmeniť, ale aj všetky dôvody, prečo v tom pokračovať - ​​najmä vďaka silným záujmom. Smerujeme k nočnej more. “
  • „Web 2.0 poskytuje občanom, ktorí sa potrebujú odviezť domov, viac pohodlia, ale zároveň - a je naivné si myslieť, že je to náhoda - je to aj speňažená, korporativizovaná, zbavujúca moci a kanibalizujúca predzvesť Koncových časov. (Preháňam kvôli účinku. Nie však o veľa.) “

Téma 4: V algoritmicky organizovaných systémoch existujú odchýlky

Tu sa spájajú dva pramene myslenia. Jedným z nich je, že tvorcovia algoritmov (tvorcovia kódu), aj keď sa snažia o inkluzívnosť, objektivitu a neutralitu, stavajú do svojich výtvorov svoje vlastné perspektívy a hodnoty. Druhým je, že súbory údajov, na ktoré sa algoritmy aplikujú, majú svoje vlastné limity a nedostatky. Dokonca aj súbory údajov s miliardami informácií nezachytávajú úplnosť života ľudí a rozmanitosť ich skúseností. Samotné súbory údajov sú navyše nedokonalé, pretože neobsahujú vstupy od každého alebo od reprezentatívnej vzorky každého. Tieto dve témy sú pokročilé v týchto odpovediach:

Justin Reich, výkonný riaditeľ laboratória MIT Teaching Systems Lab, poznamenal: „Algoritmy budú primárne navrhnuté bielymi a ázijskými mužmi - s údajmi vybranými tými istými privilegovanými aktérmi - v prospech spotrebiteľov, ako sú oni. Väčšina ľudí na privilegovaných pozíciách považuje tieto nové nástroje za pohodlné, bezpečné a užitočné. Škody súvisiace s novou technológiou budú najviac zažívať tí, ktorí sú už v spoločnosti znevýhodnení, kde reklamné algoritmy ponúkajú reklamy na kauciu, ktoré predpokladajú, že čitatelia sú zločinci, žiadosti o pôžičku, ktoré penalizujú ľudí za proxy tak korelované s rasou, že efektívne penalizujú ľudí na základe rasy a podobné problémy. "

Dudley Irish, softvérový inžinier, poznamenal: „Všetci, zopakujem to, všetky tréningových údajov obsahuje skreslenia. Väčšina z nich súvisí buď s rasou, alebo s triedou, a spravodlivé pokropenie jednoduchým potrestaním ľudí za to, že nepoužívajú štandardný anglický dialekt. Aby som parafrázoval Immanuela Kanta, z krivého dreva týchto súborov údajov nebola nikdy vytvorená žiadna priama vec. ”

Ukážka úryvkov z citátov spojených s touto témou od ostatných respondentov (podrobnosti si prečítajte v úplnejšej verzii v úplnej správe):

Jednou z najväčších výziev budúcej éry bude vyváženie ochrany duševného vlastníctva v algoritmoch s ochranou subjektov týchto algoritmov pred nespravodlivou diskrimináciou a sociálnym inžinierstvom.

  • "Algoritmy sú podľa definície neosobné a sú založené na hrubých dátach a zovšeobecnených predpokladoch." Algoritmy písania ľudí, dokonca aj tie, ktoré sú založené na dátach, sú nereprezentatívnou podskupinou populácie. “
  • "Ak začínate na mieste nerovnosti a pomocou algoritmov rozhodujete o tom, čo je pravdepodobným výsledkom pre osobu/systém, nerovnosti nevyhnutne posilníte."
  • "Všetci budeme týraní ako homogénnejší, ako sme."
  • "Výsledkom by mohla byť inštitucionalizácia zaujatých a škodlivých rozhodnutí s ospravedlnením:" Počítač sa rozhodol, takže ho musíme prijať. "
  • "Algoritmy budú odrážať skreslené myslenie ľudí." Odpad dnu odpad von. Ovplyvní to mnoho dimenzií života, ale len málokomu sa pomôže. Dohľad bude veľmi ťažký alebo nemožný. “
  • "Algoritmy oceňujú efektívnosť nad správnosťou alebo férovosťou a v priebehu času bude ich vývoj pokračovať v rovnakých prioritách, aké ich pôvodne formulovali."
  • "Jednou z najväčších výziev budúcej éry bude vyváženie ochrany duševného vlastníctva v algoritmoch s ochranou subjektov týchto algoritmov pred nespravodlivou diskrimináciou a sociálnym inžinierstvom."
  • "Algoritmy majú byť spravodlivé, racionálne a nezaujaté, ale iba presadzovať predsudky bez akéhokoľvek postihu."
  • "Pokiaľ nie sú algoritmy v zásade open source a ako také môžu byť upravované spätnou väzbou od používateľov nejakým férovým spôsobom, sila, ktorú si pravdepodobne výrobcovia algoritmov (korporácie a vlády) musia zvoliť sami, či už z hľadiska internetových služieb alebo adhézie. zmluvy alebo politické zaujatosti, budú do algoritmov vkladať vedomú aj nevedomú predpojatosť. “

Téma 5: Algoritmické kategorizácie prehlbujú rozdiely

V odpovediach mnohých respondentov boli evidentné dve prepojené predstavy o sociálnom rozdelení. Najprv predpovedali, že budúcnosť podporovaná algoritmami rozšíri priepasť medzi digitálne zdatnými (predovšetkým najbohatšími, ktorí sú najžiadanejšou demografickou skupinou v novom informačnom ekosystéme) a tými, ktorí nie sú ani zďaleka tak prepojení alebo schopní sa zúčastniť. . Za druhé, uviedli, že sociálne a politické rozdiely budú podporované algoritmami, pretože kategorizácie a klasifikácie riadené algoritmami nasmerujú ľudí do komôr ozveny opakovaného a posilneného mediálneho a politického obsahu. Dve názorné odpovede:

Ryan Hayes, majiteľ portálu Fit to Tweet, uviedol: „Pred dvadsiatimi rokmi sme hovorili o„ digitálnej priepasti “medzi ľuďmi, ktorí majú prístup k počítaču doma, v porovnaní s tými, ktorí ho nemajú, alebo tými, ktorí majú prístup na internet. kto nie .... O desať rokov sa však život niekoho, koho schopnosti a vnímanie sveta rozšíria senzory a spracujú s výkonnou AI a spojí s veľkým množstvom dát, bude výrazne líšiť od života tých, ktorí k nemu nemajú prístup. k týmto nástrojom alebo znalosti o tom, ako ich používať. A táto priepasť sa bude sama opakovať, pričom tí, ktorí majú menej schopností, budú v mnohých ohľadoch zraniteľnejší voči tým, ktorí majú viac. “

Adam Gismondi, hosťujúci odborník na Boston College, napísal: „Obávam sa, že keďže sú používatelia umiestnení do karantény v rôznych ideologických oblastiach, ľudská schopnosť empatie môže trpieť. Vyrovnanie sa s protikladnými názormi je pre nás výzvou a ak sa dokážeme (aktívne alebo pasívne) vyhýbať iným s rôznymi perspektívami, bude to mať negatívny vplyv na našu spoločnosť.Bude zaujímavé zistiť, aké funkcie pridajú naše hlavné spoločnosti v oblasti sociálnych médií v nasledujúcich rokoch, pretože budú mať obrovskú moc nad štruktúrou toku informácií. “

Ukážka úryvkov z citátov spojených s touto témou od ostatných respondentov (podrobnosti si prečítajte v úplnejšej verzii v úplnej správe):

Celkový účinok bude u niektorých jedincov pozitívny. Bude to negatívne pre chudobných a nevzdelaných. V dôsledku toho bude digitálna priepasť a rozdiely v bohatstve rásť. Bude to čistý negatív pre spoločnosť.

  • "Ak súčasný ekonomický poriadok zostane na svojom mieste, potom nevidím nárast algoritmov založených na dátach, ktoré poskytujú veľký úžitok komukoľvek mimo najbohatšieho v spoločnosti."
  • "Sociálne nerovnosti sa pravdepodobne napravia."
  • "Hlavným rizikom je, že menej pravidelní používatelia, najmä tí, ktorí sa združujú na jednom alebo dvoch serveroch alebo platformách, nevyvinú toto navigačné a výberové zariadenie a budú v nevýhode."
  • "Algoritmy robia diskrimináciu efektívnejšou a dezinfikovanou." Pozitívnym vplyvom budú zvýšené zisky pre organizácie schopné vyhnúť sa riziku a nákladom. Negatívne vplyvy budú mať všetky, ktoré algoritmy považujú za rizikové alebo menej výnosné. “
  • „Spoločnosť bude stratifikovaná podľa toho, s ktorým poskytovateľom dôvery/identity si môžete dovoliť/s akým sa kvalifikovať. Úroveň súkromia a ochrany sa bude líšiť. Lois McMaster [Bujold] Jacksonovo celé zrazu sa zdá byť trochu mrazivejšie realistický. “
  • "Máme radikálne odlišné súbory hodnôt, politické a iné, a algo sú vždy zakorenené v hodnotových systémoch ich tvorcov." Scenár je teda jedným z obrovských otvorení príležitostí-ekonomických aj iných-pod kontrolou buď Zuckerberga alebo sivovlasých hybateľov globálneho kapitálu alebo ... “
  • "Celkový efekt bude pre niektorých jednotlivcov pozitívny." Bude to negatívne pre chudobných a nevzdelaných. V dôsledku toho bude digitálna priepasť a rozdiely v bohatstve rásť. Bude to čistý negatív pre spoločnosť. “
  • „Rasové vylúčenie pri zacielení na spotrebiteľa. Rodové vylúčenie v zacielení na spotrebiteľa. Vylúčenie triedy v zacielení na spotrebiteľa …. Nacionalistické vylúčenie pri zacielení na spotrebiteľa. “
  • "Ak algoritmy usmerňujúce tok správ potláčajú protichodné informácie - informácie, ktoré spochybňujú predpoklady a hodnoty jednotlivcov - môžeme v rýchlo sa odlišujúcich subpopuláciách vidieť rastúce extrémy separácie vo svetonázoroch."
  • "Možno smerujeme k informačným tokom s najnižším spoločným menovateľom."
  • "Účinnosť a príjemnosť a serotonín, ktoré pochádzajú z predpisového poriadku, sú veľmi nadhodnotené." Je dôležité udržať v našich životoch chaos. “

Niektorí účastníci tejto agitácie vyjadrili znepokojenie nad zmenou v informačných diétach verejnosti, „atomizáciou médií“, prehnaným zdôrazňovaním extrémnych, škaredých, podivných správ a uprednostňovaním „pravdivosti“ pred inými- faktický materiál, ktorý môže byť životne dôležitý pre pochopenie toho, ako byť zodpovedným občanom sveta.

Téma 6: Nezamestnanosť bude rásť

Šírenie umelej inteligencie (AI) má potenciál spôsobiť veľkú nezamestnanosť a všetky dôsledky z toho.

Anonymný generálny riaditeľ povedal: „Ak je možné úlohu efektívne reprezentovať algoritmom, potom ju môže ľahko vykonať stroj. Negatívny trend, ktorý tu vidím, je, že - s nárastom algoritmu - budú ľudia pri mnohých úlohách/úlohách nahradzovaní strojmi/počítačmi. Aký bude potom osud Človeka? “

Ukážka úryvkov z citátov spojených s touto témou od ostatných respondentov (podrobnosti si prečítajte v úplnejšej verzii v úplnej správe):

Predpokladám, že algoritmy nahradia takmer všetkých pracovníkov bez skutočných možností pre nahradených ľudí.

  • "AI a roboty pravdepodobne narušia pracovnú silu k potenciálnej 100% nezamestnanosti ľudí." Budú múdrejší, efektívnejší a produktívnejší a budú mať nižšie náklady, takže dáva zmysel, aby sa korporácie a firmy uberali týmto smerom. “
  • "Masívne zvýšenie produktivity v dôsledku automatizácie zvýši rozdiely medzi pracovníkmi a vlastníkmi kapitálu."
  • „Moderná západná spoločnosť je postavená na sociálnom modeli, v ktorom sa kapitál vymieňa za prácu, aby sa zabezpečil hospodársky rast. Ak práca už nebude súčasťou tejto výmeny, dôsledky budú obrovské. “
  • "Žiadna práca, rastúca populácia a menšia potreba, aby priemerný človek fungoval autonómne." Ktorá časť z toho je teplá a fuzzy? “
  • "Predpokladám, že algoritmy nahradia takmer všetkých pracovníkov bez skutočných možností pre nahradených ľudí."
  • "Z dlhodobého hľadiska by mohlo byť pre jednotlivcov dobré, keby sa zbavili opakujúcich sa úloh s nízkou hodnotou a motivovali ich k vykonávaniu tých, ktoré vytvárajú vyššiu hodnotu."
  • "Dúfajme, že krajiny budú reagovať zavedením foriem minimálnej garantovanej životnej mzdy a bezplatného vzdelávania po K-12, inak tí najsvetlejší použijú online zdroje na rýchle prekonanie priemerných jednotlivcov a najbohatší využijú svoju ekonomickú silu na získanie ďalších politických výhod."

Téma 7: Rastie potreba algoritmickej gramotnosti, transparentnosti a dohľadu

Respondenti tohto zhromaždenia ponúkli množstvo myšlienok o tom, ako by jednotlivci a širšia kultúra mohli reagovať na algoritmizáciu života. Tvrdili, že verejné vzdelávanie má vniesť gramotnosť o tom, ako algoritmy fungujú v širokej verejnosti. Tiež poznamenali, že tí, ktorí vytvárajú a vyvíjajú algoritmy, nie sú zodpovední voči spoločnosti a tvrdili, že by mala existovať nejaká metóda, ktorou sú. Zástupcovia:

Susan Etlingerová, priemyselný analytik spoločnosti Altimeter Group, povedal: „Rovnako ako spôsob, akým si stále viac želáme poznať miesto a za akých podmienok sa vyrába naše jedlo a oblečenie, mali by sme sa pýtať, ako sa robia aj naše údaje a rozhodnutia. Aký je dodávateľský reťazec týchto informácií? Existuje jasné vedenie a audit trail? Boli predpoklady založené na čiastočných informáciách, chybných zdrojoch alebo irelevantných referenčných hodnotách? Trénovali sme dostatočne svoje údaje? Zapojili sa správni zainteresovaní aktéri a poučili sme sa z vlastných chýb? Výsledkom toho všetkého je, že celý náš spôsob riadenia organizácií bude v budúcom desaťročí vylepšený. Sila vytvárať a meniť realitu bude spočívať v technológii, ktorej len málokto skutočne rozumie. Aby sme zaistili úspešné používanie algoritmov, či už pre finančný alebo ľudský prospech, alebo pre oba, musíme mať k dispozícii štruktúry riadenia a zodpovednosti. Ľahšie sa to hovorí, ako sa to robí, ale ak niekedy nastal čas spojiť najchytrejšie mysle v priemysle s najchytřejšími mysliami na akademickej pôde, aby vyriešili tento problém, teraz je ten pravý čas. “

Chris Kutarna, autor Vek objavu a kolega z Oxfordskej Martinskej školy napísali: „Algoritmy sú explicitnou formou heuristiky, spôsobom, ako rutinizovať určité voľby a rozhodnutia, aby sme neustále nepili z požiarneho hydrantu zmyslových vstupov. Táto stratégia zvládania sa vždy vyvíjala spoločne s ľudstvom a so zložitosťou našich sociálnych systémov a dátových prostredí. Uvedomenie si našich zjednodušujúcich predpokladov a heuristiky je dôležité miesto, kde dozrieva náš intelekt a vplyv. Čo je teraz iné, je narastajúca schopnosť explicitne programovať tieto heuristiky, vykonávať zjednodušovanie mimo ľudskej mysle a v rámci strojov a platforiem, ktoré dodávajú údaje miliardám individuálnych životov. Trvá nejaký čas, kým vyvinieme múdrosť a etiku, aby sme túto silu pochopili a nasmerovali. Medzitým úprimne nevieme, ako dobre alebo bezpečne sa používa. Prvým a najdôležitejším krokom je rozvoj lepšieho sociálneho povedomia o tom, kto, ako a kde sa uplatňuje. “

Ukážka úryvkov z citátov spojených s touto témou od ostatných respondentov (podrobnosti si prečítajte v úplnejšej verzii v úplnej správe):

Potrebujeme nejaký druh dúhovej koalície, aby sme prišli s pravidlami, ktoré by zabránili vrodeným predsudkom a skupinovému mysleniu ovplyvňovať výsledky.

  • „Kto stráži strážcov? A najmä, ktorí „opatrovníci“ čo robia, komu s využitím rozsiahleho súboru informácií? “
  • "V kapitalizme neexistujú stimuly na boj proti filtračným bublinám, profilovaniu a negatívnym vplyvom a vládna/medzinárodná správa je prakticky bezmocná."
  • "Mechanizmy dohľadu môžu zahŕňať prísnejšie prístupové protokoly o odhlasovaní etických kódexov pre digitálnu správu a menovaných správcov informácií o online sledovaní funkcií opätovného použitia informácií jednotlivcom, ktorým sa stanovujú časové harmonogramy prístupu bez predaja tretej strane bez súhlasu."
  • "Pokiaľ nebude zvýšené úsilie o to, aby sa skutočná informačná gramotnosť stala súčasťou základného vzdelávania, bude existovať trieda ľudí, ktorí môžu používať algoritmy, a trieda používaná algoritmami."
  • "Spotrebitelia musia byť informovaní, vzdelaní a skutočne aktivistickí v orientácii na niečo jemné. O tom je počítačová gramotnosť v 21. storočí. “
  • „Nájdenie rámca, ktorý umožní transparentnosť a hodnotenie výsledkov, bude kľúčové. Tiež je potrebné dobre porozumieť algoritmickému „hodnotovému reťazcu“ a tým, že údaje sú kľúčovým faktorom a sú rovnako cenné ako algoritmus, ktorý trénuje.
  • "Algoritmická zodpovednosť je projekt veľkého stanu, ktorý vyžaduje schopnosti teoretikov a praktikov, právnikov, sociálnych vedcov, novinárov a ďalších." Je to naliehavá, globálna príčina s oddanými a mobilizovanými odborníkmi, ktorí hľadajú podporu. “
  • "Nakoniec bude uznané, že zákon o zodpovednosti za softvér potrebuje reformu, pretože práve teraz môžu programátori doslova uniknúť vražde."
  • "Zákon neúmyselných následkov naznačuje, že zvyšujúce sa vrstvy spoločenskej a technickej zložitosti zakódované v algoritmoch zaisťujú, že dôjde k nepredvídaným katastrofickým udalostiam - pravdepodobne nie k tým, s ktorými sme si robili starosti."
  • "Nakoniec vyvinieme mechanizmy, ktoré spotrebiteľom poskytnú väčšiu kontrolu, ktorá by mala viesť k lepšiemu porozumeniu a dôvere .... Zrušenie bude nevyhnutné, ale nevyhnutné a z dlhodobého hľadiska povedie k rovnováhe, ktorá bude prospešnejšia pre nás všetkých. “
  • "Potrebujeme nejaký druh dúhovej koalície, aby sme prišli s pravidlami, ktoré by zabránili vrodeným predsudkom a skupinovému mysleniu ovplyvňovať výsledky."
  • "Algoritmy sú príliš komplikované na to, aby boli niekedy transparentné alebo úplne bezpečné." Tieto faktory budú naďalej ovplyvňovať smerovanie našej kultúry. “
  • "Očakávam, že budú vyvinuté meta-algoritmy, ktoré sa pokúsia čeliť negatívam algoritmov."

Anonymní respondenti zdieľali tieto jednorazové správy k téme:

  • "Zlaté pravidlo: Ten, kto vlastní zlato, tvorí pravidlá."
  • "Zlí chlapci sa zdajú byť oveľa lepší ako dobrí."
  • "Odpor je zbytočný."
  • "Algoritmy sú definované ľuďmi, ktorí vám chcú niečo predať (tovar, služby, ideológie) a prekrútia výsledky, aby tak urobili."
  • "Algoritmy sú určite užitočné, ale pravdepodobne nedostatočné, pokiaľ nie sú kombinované s ľudskými znalosťami a politickou vôľou."

Nakoniec táto predpoveď od anonymného účastníka, ktorý považuje pravdepodobný koncový bod za jeden z dvoch extrémov:

"Celkový vplyv bude utópia alebo koniec ľudskej rasy nebude predvídateľný." Mám podozrenie, že je to utópia, pretože sme v minulosti prežili najmenej jednu existenčnú (jadrovú) krízu a že naše výsledky v oblasti mieru, aj keď pomalé, sú pevné. “

Uvažovanie kľúčových odborníkov o budúcich dopadoch algoritmov

Nasleduje krátka zbierka pripomienok niekoľkých z mnohých špičkových analytikov, ktorí sa zúčastnili tejto kampane:

„Vedenie ľudí k užitočným informáciám“

Vinton Cerf“Člen Internetovej siene slávy a viceprezident a hlavný internetový evanjelista v spoločnosti Google:„ Algoritmy sú väčšinou určené na to, aby nasmerovali ľudí k užitočným informáciám, a to považujem za čisté pozitívum. “

Dávajte si pozor na „neoverené, nesledované a nerafinované modely“

Cory Doctorow, spisovateľ, aktivista počítačových vied, rezident v MIT Media Lab a spolumajiteľ spoločnosti Boing Boing, odpovedal: „Možnosti v tejto otázke sú príliš obmedzené. Správna odpoveď je: „Ak budeme dôsledne používať modely strojového učenia, urobia veci lepšími, ak ich použijeme na papierovanie nad nespravodlivosťou s dyhou strojového empirizmu, bude to horšie.“ Amazon používa strojové učenie na optimalizáciu svojich predajných stratégií. Keď vykonajú zmenu, predpovedajú jej pravdepodobný výsledok predaja, potom použijú údaje o predaji z tejto predikcie na spresnenie modelu. Dodávatelia prediktívneho vyhodnocovania trestov do amerického väzenského systému používajú strojové učenie na optimalizáciu odporúčaní o odsúdení. Ich model tiež predpovedá pravdepodobné výsledky (pri recidíve), ale nesleduje sa, či ich model robí dobré predpovede, a žiadne spresnenie. To ich oslobodzuje od strašných predpovedí bez následkov. Táto charakteristika neoverených, nesledovaných a nerafinovaných modelov je prítomná na mnohých miestach: zoznamy teroristických modelov sledovania modelov zabíjania dronov moderné redlining/systémy Jim Crow, ktoré obmedzujú algoritmy prediktívnej policajnej polície atď. Ak nariadime alebo stanovíme normatívne limity pre postupy, ktoré to napravia povrchné správanie, potom môžeme použiť empirizmus na nápravu zaujatosti a zlepšiť spravodlivosť a nestrannosť firiem a štátu (a verejno -súkromných partnerstiev). Ak naopak prax pokračuje tak, ako je, končí sa akousi kafkovskou nočnou morou, kde robíme veci „pretože to hovorí počítač“ a nazývame ich spravodlivými „pretože to hovorí počítač“.

„Prevláda všeobecný trend k pozitívnym výsledkom“

Jonathan Grudin, hlavný výskumník spoločnosti Microsoft, povedal: „Konečne sa dostávame do stavu symbiózy alebo partnerstva s technológiou. Algoritmy nie sú pod kontrolou, ktorú ľudia vytvárajú a upravujú. Pozitívne efekty pre jednu osobu však môžu byť pre iného negatívne a sledovanie príčin a následkov môže byť náročné, takže budeme musieť neustále pracovať na porozumení a úprave rovnováhy. Nakoniec bude väčšina kľúčových rozhodnutí politická a som optimistický, že vzhľadom na obrovský potenciál, ktorý môže mať využitie technológie, bude prevažovať všeobecný trend k pozitívnym výsledkom. Menej sa obávam, že by prevládali zlí herci, než z neúmyselných a nepovšimnutých negatívnych dôsledkov, ktoré sa na nás vkradnú. “

„Systémy bez tváre sa viac zaujímajú o sledovanie a reklamu ako o skutočnú službu“

Doc Searls, novinár, rečník a riaditeľ projektu VRM v Berkmanovom centre Harvardskej univerzity, napísal: „Najväčším problémom dnešných algoritmov je čierny box niektorých z najväčších a najzáväznejších. Príkladom je ten, ktorý používa spoločnosť Dun & amp Bradstreet na určenie bonity. Metódy rozhodovania, ktoré robí, sú úplne nepriehľadné nielen pre tých, ktorých kredit sa posudzuje, ale aj pre väčšinu ľudí, ktorí používajú algoritmus. Iba programátori môžu s istotou vedieť, čo algoritmus robí, a dokonca ani im nemusí byť jasné, čo sa deje. V niektorých prípadoch neexistuje spôsob, ako presne povedať, prečo alebo ako sa dosiahne rozhodnutie algoritmom. A aj keď zodpovedné strany presne vedia, ako algoritmus funguje, nazvú ho obchodným tajomstvom a skryjú ho. Už existuje tlak na neprehľadnosť algoritmov a niekedy aj rozsiahle systémy za nimi. Mnoho zákonodarcov a regulačných orgánov tiež chce, aby boli napríklad rozsiahle serverové farmy Google a Facebook hlbšie známe a pochopené. Tieto veci majú veľkosť, rozsah a v niektorých ohľadoch význam jadrových elektrární a ropných rafinérií, napriek tomu však nemajú takmer žiadny regulačný dohľad. Toto sa zmení. Súčasne bude rásť aj veľkosť entít používajúcich algoritmy. Budú menšie a početnejšie, pretože väčšia zodpovednosť za jednotlivé životy sa bude vzďaľovať od systémov bez tváre, ktoré sa viac zaujímajú o sledovanie a reklamu než o skutočnú službu. “

Výzva na #AlgorithmicTransparency

Marc Rotenberg, výkonný riaditeľ Informačného centra pre elektronickú ochranu osobných údajov, poznamenal: „Hlavným problémom rozhodovania založeného na algoritmoch je nedostatočná zodpovednosť. Stroje sa stali doslova čiernymi skrinkami - dokonca ani vývojári a operátori úplne nechápu, ako sa produkujú výstupy. Problém ešte zhoršuje „digitálny veda“ (moja fráza) - neochvejná viera v spoľahlivosť veľkých dát. „Algoritmická transparentnosť“ by mala byť ustanovená ako základná požiadavka pre každé rozhodovanie na základe AI. Väčší problém je s nárastom výsledkov založených na algoritmoch, ktoré presahujú riziko chyby alebo diskriminácie-narastajúca neprehľadnosť rozhodovania a rastúci nedostatok ľudskej zodpovednosti. Musíme sa postaviť realite, že moc a autorita sa presúvajú z ľudí na stroje. Preto je #AlgorithmicTransparency jednou z veľkých výziev našej doby. “

Údaje „budú zneužité rôznymi spôsobmi“

Richard Stallman“Člen Internetovej siene slávy a prezident Free Software Foundation povedal:„ Na ľudí bude vyvíjaný tlak, aby odovzdali všetky osobné údaje, ktoré by algoritmy posúdili. Hromadené údaje budú zneužité rôznymi spôsobmi - spoločnosťami, ktoré ich zhromažďujú, nepoctivými zamestnancami, sušienkami, ktoré kradnú údaje z webových stránok spoločnosti, a štátom prostredníctvom listov národnej bezpečnosti. Počul som, že ľudia, ktorí odmietajú byť využívaní Facebookom, sú nejakým spôsobom diskriminovaní. Snáď čoskoro im bude odoprený napríklad vstup do USA. Aj keď to Spojené štáty v skutočnosti neurobia, ľudia sa budú obávať, že to urobia. Porovnajte to so skóre čínskej sociálnej poslušnosti pre používateľov internetu. “

Ľudia musia žiť s výsledkami algoritmov „napriek tomu, že sa obávajú rizík“

David Clark“Člen Internetovej siene slávy a vedúci výskumu na MIT odpovedal:„ Vidím, že pozitívne výsledky prevažujú nad negatívnymi, ale problém bude, že niektorí ľudia budú mať negatívne dôsledky, možno veľmi vážne, a spoločnosť sa bude musieť rozhodnúť, ako vysporiadať sa s týmito výsledkami. Tieto výsledky sa budú pravdepodobne líšiť v charaktere a v našej schopnosti pochopiť, prečo sa stali, a v dôsledku tejto reality budú niektorí ľudia vystrašení. Ale ako dnes vidíme, ľudia cítia, že musia používať internet, aby boli súčasťou spoločnosti. Aj keď sa obávajú následkov, ľudia akceptujú, že musia žiť s výsledkami týchto algoritmov, aj keď sa obávajú rizík. “

„KAŽDÁ oblasť života bude ovplyvnená. Každý. Single. Jeden. ‘

Baratunde Thurston, Člen riaditeľky MIT Media Lab, publicista Fast Company a bývalý digitálny riaditeľ The Onion, napísal: „Hlavné pozitívne zmeny: 1) Ospravedlnenie nevedomosti sa výrazne zníži, pretože informácie budú ešte prepojenejšie a úplnejšie. 2) Chyby vyplývajúce z chýb v ľudskom úsudku, znalostí alebo#8217 alebo reakčného času sa výrazne znížia. Nazvime to ’s ako ‘roboti jazdia lepšie ako ľudia ’. Dnešní vodiči budú kňučať, ale o 50 rokov nikto nebude chcieť šoférovať, keď bude môcť využiť tento čas na prežitie a zažiť v realite nerozoznateľné pohlcujúce virtuálne prostredie plné bandy robotov Beyoncé.

„3) Korupcia, ktorá dnes existuje v dôsledku ľudského podvodu, výrazne klesne - úplatky, štepy, nepotizmus. Ak sú algoritmy postavené dobre a robustne, príležitosť vložiť túto neefektivitu (napr. Najať nejakého idiota, pretože je vašim bratrancom) by mala ísť dole. 4) Vo všeobecnosti by sme mali dosiahnuť oveľa efektívnejšiu distribúciu zdrojov vrátane drahých (v dolároch alebo environmentálnych nákladoch) zdrojov, ako sú fosílne palivá. Algoritmický prehľad v zásade začne ovplyvňovať dizajn našich domovov, miest, dopravných sietí, úrovní výroby, spracovania odpadového hospodárstva a ďalších. Vo svete, kde má každá Američanka auto, ktoré nikdy nepoužíva, je veľa nadbytočnosti. Mali by sme byť oveľa energeticky efektívnejší, keď znížime nadbytočnosť procesov navrhnutých ľuďmi.

"Ale dôjde k negatívnym zmenám: 1) Zvýši sa rýchlosť interakcií a objem spracovaných informácií - všetko sa zrýchli. Žiadny z nárastov účinnosti, ktoré prináša technológia, nikdy neviedol k väčšiemu odpočinku, odpočinku alebo šťastiu. Jednoducho budeme viac nakupovať, pracovať, rozhodovať o viacerých veciach, pretože naša schopnosť vykonávať všetky tieto činnosti sa zvýši. Je to ako pridanie pruhov na diaľnicu ako riešenie riadenia dopravy. Keď to urobíte, povzbudíte viac ľudí, aby šoférovali. Skutočným trikom je nepridávať ďalšie pruhy pre autá, ale vybudovať svet, v ktorom potrebuje alebo chce riadiť menej ľudí.

„2) Bude existovať algoritmický a na údaje zameraný útlak. Vzhľadom na to, že tieto systémy budú navrhovať preukázateľne nedokonalé a zaujaté ľudské bytosti, pravdepodobne vytvoríme nové a oveľa menej viditeľné formy diskriminácie a útlaku. Tvorcovia týchto algoritmov a zberatelia údajov použitých na ich testovanie a prípravu nemajú ani zďaleka komplexné porozumenie kultúry, hodnôt a rozmanitosti. Počas veľkých športových udalostí v silnej hmle zabudnú otestovať svoje rozpoznávanie imidžu na tmavej koži alebo svoje lekárske diagnostické nástroje na ázijských ženách alebo na svojich dopravných modeloch. Budeme predpokladať, že stroje sú múdrejšie, ale uvedomíme si, že sú rovnako hlúpi ako my, ale lepšie ich skryjú.

„3) Budú vylúčené celé skupiny ľudí, ktorí s najväčšou pravdepodobnosťou vyhrajú ’tt vedieť o paralelnej realite, ktorú nezažívajú. Ovplyvnená bude každá oblasť života. Každý. Single. Jeden. "

Výzva na „reformu priemyslu“ a „dôvtipnejšie regulačné režimy“

Technológ Anil Dash povedal: „Najlepšie časti algoritmického vplyvu zlepšia život mnohým ľuďom, ale najhoršie excesy skutočne nepredvídateľným spôsobom poškodia tých naj marginálnejších. Na zvládnutie komplexných výziev, ktoré nastanú, budeme potrebovať reformu priemyslu v rámci technologických spoločností vytvárajúcich tieto systémy a oveľa dôvtipnejšie regulačné režimy. “

„Sme spoločnosť, ktorá berie svoj životný smer z dlane našich rúk“

John Markoff, autor Stroje láskyplnej milosti: Hľadanie spoločného základu medzi ľuďmi a robotmi a senior spisovateľ The New York Times poznamenal: „Najviac ma znepokojuje nedostatok algoritmickej transparentnosti. Stále viac sme spoločnosťou, ktorá berie svoj životný smer z dlane - našich smartfónov. Poradenstvo vo všetkom, od toho, čo je najlepšie kórejské grilovanie, po to, koho si vybrať pre manžela / manželku, je generované algoritmicky. Existuje však malý prehľad o hodnotách a motívoch dizajnérov týchto systémov. “

Opraviť „organizačné, spoločenské a politické prostredie, ktoré sme vybudovali“

danah boyd, zakladateľ spoločnosti Data & amp Society, poznamenal: „Algoritmus sám osebe nič neznamená. V stávke je, ako sa „model“ vytvára a používa. Model sa skladá zo sady údajov (napr. Školiacich údajov v systéme strojového učenia) spolu s algoritmom. Algoritmus nie je nič bez údajov. Model však tiež nie je ničím bez puzdra na použitie. Rovnakú technológiu je možné použiť na posilnenie postavenia ľudí (napr. Identifikácia ohrozených osôb) alebo ich poškodenie. Všetko závisí od toho, kto tieto informácie používa (napr. Sociálne služby vs. polícia). Vzhľadom na nezdravú dynamiku moci v našej spoločnosti bohužiaľ mám podozrenie, že výsledky budú oveľa problematickejšie - mechanizmy na obmedzenie príležitostí ľudí, segmentáciu a segregáciu ľudí do nerovných vedier a využitie sledovania, ktoré prinúti ľudí dostať sa do represívnejších situácií. Ale nemusí to tak byť. To, čo je v stávke, má len málo spoločného s technológiou, ktorá má čo do činenia s organizačným, sociálnym a politickým podnebím, ktoré sme vytvorili. “

Už máme algoritmický problém: Kreditné skóre

Henning Schulzrinne“Člen Internetovej siene slávy a profesor na Kolumbijskej univerzite poznamenal:„ Už máme včasné indikátory ťažkostí s algoritmickým rozhodovaním, konkrétne kreditné skóre. Ich výpočet je nepriehľadný a potom sa použili na všetky druhy účelov, ktoré boli veľmi vzdialené od poskytovania pôžičiek, ako sú napríklad rozhodnutia o zamestnaní alebo segmentácia zákazníkov na rôzne účely. Presakuje veľa súkromných informácií a sú zverejnené úmyselne alebo z nedbanlivosti subjektom, ktoré nekonajú v najlepšom záujme spotrebiteľa. Oprava údajov je náročná a časovo náročná, a preto nie je pravdepodobné, že budú k dispozícii jednotlivcom s obmedzenými zdrojmi. Nie je jasné, ako navrhované algoritmy riešia tieto dobre známe problémy, pretože často nepodliehajú žiadnym predpisom. V mnohých oblastiach sú vstupné premenné buď hrubé (a často proxy pre rasu), napríklad domáce poštové smerovacie číslo, alebo extrémne invazívne, napríklad monitorovanie správania sa pri jazde minútu po minúte. Vzhľadom na to, že neexistujú zákony o ochrane osobných údajov, existuje všeobecná motivácia pre subjekty, ktoré môžu sledovať naše správanie, ako napríklad reklamní makléri, aby speňažovali informácie o správaní. Minimálne inštitúcie, ktoré majú široký spoločenský dosah, by museli zverejniť použité vstupné premenné, ako ovplyvňujú výsledok a podliehať kontrole, nielen individuálnym opravám záznamov. Úprimná, overiteľná analýza nákladov a výnosov, merajúca zlepšenú účinnosť alebo lepšie výsledky proti strate súkromia alebo neúmyselnej diskriminácii, by zabránila rozhodovaniu „dôveruj nám, bude to úžasné a je to AI!“.

Algoritmy „vytvárajú hodnotu a znižujú náklady“ a budú vylepšené

Robert Atkinson, prezident Nadácie pre informačné technológie a inovácie, povedal: „Ako prakticky všetky predchádzajúce technológie, algoritmy vytvoria hodnotu a znížia náklady, ktoré výrazne prevyšujú akékoľvek náklady. Navyše, keď organizácie a spoločnosť získajú viac skúseností s používaním algoritmov, budú existovať prirodzené sily smerujúce k zlepšovaniu a obmedzovaniu akýchkoľvek potenciálnych problémov. “

„Cieľom by malo byť pomôcť ľuďom spochybniť autoritu“

Judith Donathová z Harvard Berkman Klein Center for Internet & amp Society, odpovedal: „Údaje môžu byť neúplné alebo nesprávne a algoritmy môžu obsahovať falošné predpoklady. Riziko zvýšeného spoliehania sa na algoritmy spočíva v tom, že rozhodovací proces sa stane vešteckým: nepriehľadným, ale neprekonateľným. Riešením je dizajn. Tento proces by nemal byť čiernou skrinkou, do ktorej vkladáme údaje, a odpoveď príde, ale transparentným procesom, ktorý má nielen priniesť výsledok, ale vysvetliť, ako k nemu dospel. Systémy by mali byť schopné vytvárať jasný a čitateľný text a grafiku, ktoré pomôžu používateľom - čitateľom, redaktorom, lekárom, pacientom, žiadateľom o pôžičku, voličom atď. - porozumieť tomu, ako bolo prijaté rozhodnutie. Systémy by mali byť interaktívne, aby ľudia mohli skúmať, ako by zmena údajov, predpokladov a pravidiel zmenila výsledky. Algoritmus by nemal byť novou autoritou, ale cieľom by malo byť pomôcť ľuďom spochybniť autoritu. “

Urobte viac pre výcvik kodérov s rôznymi pohľadmi na svet

Amy WebbFuturista a generálny riaditeľ inštitútu Future Today Institute napísal: „Aby naše stroje prinútili premýšľať, musíme im ľudia pomôcť naučiť sa. Spolu s ďalšími predprogramovanými súbormi školení sú naše osobné údaje používané na pomoc strojom pri rozhodovaní. Neexistujú však žiadne štandardné etické požiadavky ani mandát pre rozmanitosť, a v dôsledku toho už v súčasnosti začíname vidieť dystopickejšiu budúcnosť. Existuje príliš veľa príkladov na citovanie, ale uvediem niekoľko: potenciálnych dlžníkov odvrátených od bánk, jednotlivcov s čiernymi identifikačnými menami, ktorí sa ocitli v reklamách na kriminálne rešerše, ľuďom odmietnuté poistenie a zdravotnú starostlivosť. Tieto problémy väčšinou vyplývajú z obmedzeného pohľadu na svet, nie preto, že by kodéri boli vo svojej podstate rasisti. Algoritmy majú škaredý zvyk robiť presne to, čo im prikážeme. Čo sa teraz stane, keď sme svojim strojom dali pokyn, aby sa od nás učili? A začať sa rozhodovať sami? Jediným spôsobom, ako v budúcnosti riešiť algoritmickú diskrimináciu, je investovať do prítomnosti. Drvivá väčšina kodérov je bielych a mužských. Korporácie musia urobiť viac, než publikovať správy o transparentnosti o svojich zamestnancoch - musia aktívne investovať do žien a farebných ľudí, ktorí budú čoskoro ďalšou generáciou pracovníkov. A keď príde deň, musia si vybrať nových zamestnancov pre svoje schopnosti a svetonázor. Univerzity musia zdvojnásobiť svoje úsilie nielen pri nábore rozmanitého súboru študentov - administrátori a fakulty ich musia podporovať až do ukončenia štúdia. A nielen študenti. Univerzity musia diverzifikovať svoje fakulty, aby zaistili, že sa študenti budú odrážať vo svojich učiteľoch. “

Krátkodobý vplyv bude negatívny, v dlhodobom horizonte bude pozitívny

Jamais Cascio, významný pracovník Inštitútu pre budúcnosť, poznamenal: „Vplyv algoritmov v ére ranej transformácie bude celkovo negatívny, pretože sa my (ľudia, ľudská spoločnosť a ekonomika) pokúšame naučiť sa integrovať tieto technológie. Predpojatosť, chyby, korupcia a ďalšie spôsobia, že implementácia algoritmických systémov bude krehká a porovnateľne ľahké využitie týchto zlyhaní pre zlobu, politickú moc alebo lulz. Kým sa prechod prejaví - pravdepodobne dobrých 20 rokov, možno o niečo menej - mnohé z týchto problémov budú prekonané a pomocné úpravy (napr. Potenciálny nárast univerzálneho základného príjmu) začnú mať celkový prínos. Inými slovami, krátkodobý (v tomto desaťročí) negatívny, dlhodobejší (v nasledujúcom desaťročí) pozitívny. “

Príbeh sa bude stále posúvať

Mike Liebhold, vedúci výskumu a významný pracovník Inštitútu pre budúcnosť, poznamenal: „Budúce efekty algoritmov v našich životoch sa budú časom meniť, keď budeme ovládať nové kompetencie. Miera prijatia a šírenia bude veľmi nerovnomerná na základe prirodzených premenných geografických oblastí, životného prostredia, ekonomík, infraštruktúry, politík, sociológie, psychológie a - čo je najdôležitejšie - vzdelávania. Rast ľudských výhod strojovej inteligencie bude najviac obmedzovaný našimi kolektívnymi kompetenciami navrhovať a efektívne pracovať so strojmi. Absolútne minimum sa musíme naučiť vytvárať efektívne otázky a úlohy pre stroje, ako interpretovať reakcie a ako jednoducho odhaliť a opraviť chybu stroja. “

Urobte algoritmy „zrozumiteľnými, predvídateľnými a kontrolovateľnými“

Ben Shneiderman, profesor počítačových vied na University of Maryland, napísal: „Algoritmy sú dobre navrhnuté, zosilňujú ľudské schopnosti, ale musia byť zrozumiteľné, predvídateľné a kontrolovateľné. To znamená, že musia byť navrhnuté tak, aby boli transparentné, aby užívatelia pochopili dopady ich používania, a musia byť predmetom priebežného hodnotenia, aby kritici mohli hodnotiť zaujatosť a chyby. Každý systém potrebuje zodpovednú kontaktnú osobu/organizáciu, ktorá udržiava/aktualizuje algoritmus a sociálnu štruktúru, aby komunita používateľov mohla diskutovať o svojich skúsenostiach. “

V kľúčových prípadoch dajte používateľovi kontrolu

David Weinberger, vedúci výskumník z Harvard Berkman Klein Center for Internet & amp Society, povedal: „Algoritmická analýza vo veľkom môže priniesť vzťahy, ktoré sú prediktívne a nápomocné, aj keď sú mimo ľudskej schopnosti porozumieť im. To je v poriadku tam, kde je investícia nízka, ako napríklad odporúčanie knihy. Tam, kde je v stávke veľa, napríklad pri algoritmickom filtrovaní spravodajského kanála, musíme byť oveľa opatrnejší, najmä ak stimuly pre tvorcov nie sú v súlade so záujmami jednotlivcov alebo širších sociálnych statkov. V týchto posledných prípadoch sa zdá veľmi vhodné poskytnúť väčšiu kontrolu používateľovi. “


Kognitívna psychológia

Absolventi a fakulta vykonávajú výskum v zariadení na kognitívny výskum OU (OUCog), v laboratóriu vizuálnej neurovedy OU (OUVNL) a laboratóriu mozgu a biomarkerov (BABL) vo výskumnom areáli univerzity v Národnom inštitúte pre riziko a odolnosť OU a v Centre behaviorálnej neurovedy a výkonnosti OU (BNPC).

Výskumné zariadenie OUCog je súpravou priľahlých laboratórií, ktoré podporujú živé a interaktívne prostredie spolupráce v oblasti výskumu. V súprave sa v súčasnosti nachádzajú laboratória pre týchto členov fakulty: Dr. Cokely, Feltz, Gronlund a Kimball. Každé laboratórium obsahuje sadu troch vyhradených miestností. Laboratórium má tiež konferenčnú miestnosť a miestnosť na oddych a čakáreň/registračný priestor pre účastníkov. Okrem desiatok počítačov existujú aj sledovače očí, displeje Oculus Rift VR, systémy na záznam videa a zvuku sledujúce pohyb a počítače s rozhraním dotykovej obrazovky. Na vytváranie stimulov a analýzu dát má laboratórium niekoľko výkonných pracovných staníc PC a Mac nakonfigurovaných so softvérom na grafickú analýzu a analýzu dát (napr. EPrime, Mathematica, Photoshop, Matlab, R, SPSS a SAS).

Laboratórium OUVNL a BABL Lab zdieľajú súpravu, ktorá v súčasnosti podporuje týchto členov fakulty: Dr. Michael Wenger a Lauren Ethridge zo psychológie a Lei Ding z OU v škole počítačového a elektrotechnického inžinierstva (odborník na lokalizáciu kortikálnych zdrojov signálov EEG a rozhraní mozog-stroj). Laboratórium obsahuje dve EMF/RF tienené, zvukovo a svetlom oslabené komory na zber údajov EEG a dve ďalšie komory zoslabené zvukom a svetlom na zber psychofyzikálnych údajov. V laboratóriu sa nachádzajú tri systémy EEG s vysokou hustotou a dva systémy EEG s nízkou hustotou. OUVNL podporuje vizuálnu psychofyziku a behaviorálne testovanie pomocou sady rýchlych monitorov CRT v šedej škále vybavených vlastným softvérom na zobrazenie. Odozvy je možné načasovať na ± 1 ms v sérii na mieru navrhnutých boxov s ôsmimi tlačidlami. Na vytváranie stimulov a analýzu údajov má laboratórium tri počítače iMac a jednu pracovnú stanicu Linux nakonfigurovanú so softvérom na analýzu grafiky a údajov (Gimp, Photoshop, Matlab, R a SAS). BABL, pod vedením doktorky Lauren Ethridgeovej, je multidisciplinárne translačné neurovedné laboratórium zamerané na aplikáciu základných vied na klinické výsledky, najmä pri poruchách neurového vývoja. Skupina BABL sa zameriava na použitie hustého poľa EEG ako translačného nástroja na získanie ďalších informácií o funkcii mozgu pri poruchách neurového vývoja.

Výskum v BNPC OU sa zameriava na optimalizáciu výkonu v profesiách citlivých na bezpečnosť. Výskum BNPC je v zásade interdisciplinárny a kombinuje štúdium individuálnych rozdielov, poznávania, vzrušenia/stresu a ľudských faktorov. Centrum spája vedcov z inžinierstva, biológie, žurnalistiky, psychológie a vedy o zdraví a cvičeniach s jedným spoločným účelom.


Aký je problém s algoritmami?

Môžem sa s tebou vyrovnať? Nie som si vždy istý, či viem, o čom ľudia hovoria, keď hovoria algoritmus?

Nie ste sami: Úprimne povedané, ani ja som si nebol vždy istý, čo som tým myslel, keď som to povedal. Ale tu je úplne najjednoduchšia definícia: Algoritmus je súbor pokynov, ktoré opisujú, ako vykonať úlohu. (Kliknutím sem získate podvodník.)

Poď. To je všetko?

Áno. Ako zdôraznil John Villasenor z UCLA, znamená to, že aj niečo také neškodné ako recept alebo zoznam trás do domu priateľa možno chápať ako algoritmus. Veci sú o niečo komplikovanejšie v kontexte počítačovej vedy, kde sa tento výraz najčastejšie vyskytuje, ale iba mierne. Vo svojej knihe Hlavný algoritmusPedro Domingos ponúka majstrovsky jednoduchú definíciu: „Algoritmus je,“ píše Domingos, „postupnosť pokynov, ktoré počítaču hovoria, čo má robiť.“ Ako Domingos ďalej vysvetľuje, algoritmy sú redukovateľné na tri logické operácie: AND, OR a NOT. Aj keď sa tieto operácie môžu spájať mimoriadne zložitými spôsobmi, v jadre sú algoritmy postavené na jednoduchých racionálnych asociáciách.

Začína to znieť, že tu hovoríme iba o počítačovom kóde.

Nemýliš sa. Obchodníci zo Silicon Valley tento výraz milujú algoritmus, pretože vďaka tomu sa funkcie, ktoré predávajú, zdajú byť trochu záhadnejšie, a preto možno aj trochu lákavejšie. Faktom je, že väčšina z nás nechápe, ako fungujú naše počítače (alebo naše telefóny alebo hodinky), ale väčšinou máme aspoň všeobecný prehľad o tom, aký kód je. Pretože je to menej známe, algoritmus má tendenciu zdôrazňovať našu neistotu.

Čím sú potom algoritmy špeciálne?

Vo všeobecnosti platí, že keď ľudia v dnešnej dobe hovoria o algoritmoch, hovoria o niečom konkrétnejšom, ako sú operácie, ktorými sa poháňa náš spravodajský kanál sociálnych médií. Tak či onak, väčšina týchto systémov je príkladom technológie tzv strojové učenie. Namiesto opakovaného spracovania stabilnej sady inštrukcií sa systémy založené na strojovom učení pri svojej práci prepíšu. Práve to niektorých ľudí desí, pretože algoritmy znejú ako živé, možno dokonca vnímavé. (Aby bolo jasné, nie sú ani oni.)

V článku o Domingose Hlavný algoritmus, BridlicaDavid Auerbach poznamenáva, že „aj v rámci počítačovej vedy je strojové učenie obzvlášť nepriehľadné“. Je to však stále dôležitejšie pre spôsob, akým žijeme, a preto je rozptýlenie tejto hmly o to dôležitejšie. Časť problému však spočíva v tom, že algoritmy strojového učenia sa samy efektívne programujú, čo znamená, že môžu byť niekedy nepredvídateľné alebo dokonca mierne cudzie. Ich operácie sú niekedy nejasné aj pre tých, ktorí ich pôvodne vytvorili!

Čo môžete robiť s týmito algoritmami?

Tak veľa vecí! V dnešnej dobe sa používajú na množstvo účelov, napríklad na automatizáciu obchodovania na akciovom trhu alebo zobrazovanie reklám návštevníkom webových stránok. Jednou z prvých aplikácií tejto technológie-na ktorej stále pracujeme-bolo takzvané strojové videnie, v ktorom sa počítače pokúšajú identifikovať rôzne prvky obrázku. Je to druh systému, ktorý vám môže povedať (alebo tvrdiť), ako horlivo vyzeráte na obrázku, alebo identifikovať tie najnápaditejšie obrazy všetkých čias.

Strojové videnie je dôležitým príkladom, pretože ukazuje aj spôsob, akým sa algoritmy často učia, ako vykonávať svoju prácu lepšie, a to tak, že ich narúša, niekedy veľmi verejne. Tieto chyby môžu byť hlúpe, ako keď Wolfram Alpha mýli roztomilú kozu pre psa, ale môžu byť aj úplne škaredé, ako keď Fotky Google nesprávne identifikovali dvoch černochov ako gorily. Nikto vedome neučil systém vytvárať rasistické závery, ale parametre, ktoré programátori nastavili, ho mohli primäť k tomu, aby tam dospel. Spoliehať sa na strojové učenie je riskantné, pretože ide o systémy, ktoré sa učia dávať veci do poriadku tým, že ich opakovane robia zle. Práca s nimi preto znamená prijať takmer nevyhnutné chyby a chyby.

Určite to nie je len o tom, naučiť počítače vidieť ...

Samozrejme, že nie. V skutočnosti najsľubnejšou - a najproblémovejšou - vlastnosťou niektorých algoritmov môže byť ich schopnosť rozhodnúť sa, čo my vidieť a ako to vidíme. Keď položíte digitálnemu asistentovi, ako je Siri alebo Cortana, otázku, algoritmické operácie informujú o jeho zmysle o tom, čo ste sa pýtali, a o informáciách, ktoré poskytuje. Strojové učenie tiež pomáha Mapám Google určiť najlepšiu trasu z jedného miesta na druhé. A existuje prakticky neobmedzená škála ďalších funkcií, ktoré môžu algoritmy slúžiť: Niektoré z prvých komerčných aplikácií algoritmov zahŕňali automatizáciu úloh, ako je správa miezd, ale s nárastom súčasného strojového učenia sa používajú na oveľa sofistikovanejšie úlohy. Algoritmy určujú, kto by mal dostávať vládne výhody, prispievať k prediktívnej polícii, pomáhať predvídať zdravotné krízy, prehodnocovať lety leteckých spoločností a mnoho ďalších.

Existuje ešte veľa vecí, ktoré algoritmy nedokážu. Napríklad pri algoritmoch celkom dobré pri rezervácii cestovania, letecké spoločnosti zistili, že nemôžu upustiť od ľudských rezervačných agentov. Napriek tomu, že algoritmy zaručujú účinnosť, nie sú skvelé v simulácii súcitu a iných ľudských vlastností.

Vyrovnávajú sa teda ľudia a algoritmy?

Nie nevyhnutne! Zvážte, že pre mnohých z nás je najznámejším príkladom algoritmu strojového učenia pravdepodobne informačný kanál z Facebooku. V tomto zmysle môžu algoritmy priniesť veľa dobrého: určite väčšina z nás má skúsenosti s opätovným spojením s dlho stratenými známymi prostredníctvom zoznamov priateľov navrhovaných spoločnosťou Facebook. Je to algoritmická operácia, ktorá nás zbližuje, a nie rozdeľuje. Ako BridlicaWill Will Oremus ukázal, že spoločnosť sa neustále pohráva s tým, ako funguje jej spravodajský kanál. Facebook nesleduje len to, ako dlho strávite prezeraním jednotlivých príspevkov, ale tiež starostlivo vyhodnocuje, čo vlastne chceme vidieť, pričom sa zameriava na nás, a nielen na základnú matematiku. Podobne aj hudobné služby, ako napríklad Pandora, používajú naše zvyky pri počúvaní na odporúčanie nových piesní a interpretov, ktorých by sme inak možno neobjavili, a niekedy nás pritom vytlačia zo svojich zón pohodlia. Kritici sa sťažujú, že algoritmy robia náš svet menším a oddeľujú nás jeden od druhého. Tieto operácie však naznačujú, že nám v skutočnosti môžu pomôcť spojiť sa s neznámym - a dávno zabudnutým.

Vráťme sa k otázke nepriehľadnosti. O čo ide?

Aby mohli algoritmy vykonávať všetky skvelé činnosti, ktoré robia, musia o nás vytvárať komplexné obrázky. Problém je v tom, že algoritmy o nás toho veľa vedia, zatiaľ čo my o nich vieme tak málo. Auerbach tvrdil, že operácie sofistikovaných algoritmov strojového učenia sú často takmer rovnako temné pre tých, ktorí ich vytvárajú, ako pre nás ostatných. Je to dôsledok veľkosti spoločností, ako je Google, ale tiež to vyplýva zo zložitosti samotných programov. Naznačuje, že by sme nemali vždy predpokladať, že spoločnosti konali zlomyseľne, keď počítač urobí niečo zlé, pretože jeho zdanliví majstri nemusia ani tušiť, že bol naklonený tak jednať.

To však neznamená, že algoritmy nie sú rasistické, keď povedzme častejšie poskytujú reklamy o záznamoch o zatknutí ľuďom, ktorých mená sú spojené s černošskou populáciou - to rozhodne sú. A keby niečo, toto všetko môže znamenať, že naozaj mať vzhľadom na to, že algoritmy majú príliš veľkú silu, pretože nemôžeme ani začať chápať - nieto ešte regulovať - ​​veľkú časť toho, čo robia.

Súhlasí s tým každý?

Nie každý. Výskumník bezpečnosti Adam Elkus napríklad obhajoval algoritmy a tvrdil, že väčšina problémov, s ktorými sa s nimi stretávame, je skôr sociálna než výpočtová. Problém nie je v tom, že algoritmy sú nepriehľadné čierne skrinky, ale v tom, že celý náš systém je byrokratický. Tvrdí, že algoritmy sú rovnako invazívne, obmedzujúce alebo inak problematické ako sociálny kontext, ktorý podporujú. Filozof Michel Foucault opísal moc ako druh rozloženej sily, ktorá pochádza skôr zo spôsobu, akým internalizujeme normy a očakávania, než z diktátu prezidentov a kráľov. Keď hovoríme o sile algoritmov, pravdepodobne identifikujeme podobnú operáciu - nie silu jednotlivého herca, ktorý vie príliš veľa, ale silu systému, v ktorom sme už odoslané.

Je to teda chyba spoločnosti? Musíme algoritmy vypustiť?

Aj keď je pravda to, čo hovorí Elkus, niektorí by mohli naznačovať, že algoritmy môžu skomplikovať existujúce predsudky a ďalšie problémy. Federálna obchodná komisia identifikovala niektoré problémy s analýzou veľkých dát, ktoré sú priamo prepojené s nejasnosťami algoritmov, do ktorých spoločnosti tieto údaje pripájajú. Ak nevedome zapracujeme predsudok do modelu zberu údajov, varuje FTC, môžeme v tomto procese skončiť s ešte viac predsudkovými algoritmami.

Podobné problémy sa už dostávajú do popredia takzvanej prediktívnej polície. Napriek tomu, že algoritmy nám nikdy nedovolia čítať budúcnosť, niektorí tvrdia, že môžu pomôcť orgánom činným v trestnom konaní lepšie alokovať zdroje. Podľa profesora informatiky Michiganskej univerzity H.V. Jagadish, tieto algoritmy môžu nakoniec presadzovať vzorce, proti ktorým sú navrhnuté. Podobné obavy zaujímajú právnických vedcov, ako je Frank Pasquale, ktorý vo svojej knihe varuje Spoločnosť Black Box že temnota našich algoritmov môže zintenzívniť problematické predpoklady, sociálne štruktúry a podobne, ktoré do nich začleňujeme.

Budú algoritmy ovládať? všetko?

Nie nevyhnutne! Mnohé z najznámejších a zdanlivo najsilnejších algoritmov sa spoliehajú na vstupy ľudí viac, ako by ste si mohli uvedomovať. Ako sa Oremus dozvedel, keď sa pozrel na algoritmus Facebooku, spoločnosť sa v skutočnosti spoliehala na skupiny veľmi skutočných „silných používateľov“, ktoré jej pomohli doladiť svoje nástroje. A vychvaľovaný zoznam skladieb Discover Weekly od Spotify funguje tak, že identifikuje používateľov, ktorých nedávne zvyky počúvania sa podobajú vašim, a potom z nich zostaví zoznam skladieb. ich zoznamy skladieb. Opýtajte sa jedného z vývojárov tejto funkcie a ten vám tiež prizná, že vám pravdepodobne povie, ako povedal Matthew Ogle zo spoločnosti Spotify mne a ďalším, že ide o „ľudí úplne dole“.

Tento biznis „úplne dole“ samozrejme parafrázuje famózne hlúpu rečovú figúru, ktorá je predovšetkým o ignorovaní skutočnej komplexnosti vesmíru. A tam, kde nám vesmír stále odhaľuje svoje tajomstvá, algoritmy sú stále nejasnejšie, keď ich zdokonaľujeme - a keď sa učia sami seba prerábať. Ak niečo také, zvyšuje to našu povinnosť pokúsiť sa im porozumieť. Preto Futurography strávi zvyšok februára na túto tému. A my chceme vašu pomoc! Na aké otázky by sme sa mali pokúsiť zodpovedať? A čo berieš ty?

Tento článok je súčasťou inštalácie algoritmov Futurography, série, v ktorej Future Tense predstavuje čitateľom technológie, ktoré definujú zajtrajšok.. Každý mesiac od januára do mája 2016 vyberieme novú technológiu a rozložíme ju. Prečítajte si viac z futurografie o algoritmoch:

Future Tense je spolupráca medzi Štátna univerzita v Arizone, Nová Amerikaa Bridlica. Ak chcete dostávať najnovšie správy z Futurography do svojej doručenej pošty, zaregistrujte sa na odber týždenného bulletinu Future Tense.


EMDLAB: Súbor nástrojov na analýzu jednorazovej dynamiky EEG pomocou rozkladu v empirickom režime

Pozadie: Empirický režim dekompozície (EMD) je empirická technika rozkladu údajov. V poslednej dobe rastie záujem o aplikáciu EMD v biomedicínskej oblasti.

Nová metóda: EMDLAB je rozšíriteľný doplnok pre súbor nástrojov EEGLAB, čo je otvorené softvérové ​​prostredie pre analýzu elektrofyziologických údajov.

Výsledky: EMDLAB je možné použiť na jednoduché a efektívne vykonávanie štyroch bežných typov EMD: obyčajný EMD, súborový EMD (EEMD), vážený posuvný EMD (wSEMD) a viacrozmerný EMD (MEMD) na údajoch EEG. EMDLAB je navyše užívateľsky príjemný súbor nástrojov a je úzko implementovaný v súbore nástrojov EEGLAB.

Porovnanie s existujúcimi metódami: EMDLAB získava výhodu oproti iným balíkom nástrojov s otvoreným zdrojovým kódom využívaním výhodných vizualizačných schopností EEGLAB pre extrahované funkcie vnútorného režimu (IMF) a režimy súvisiace s udalosťami (ERM) signálu.

Závery: EMDLAB je spoľahlivé, efektívne a automatizované riešenie na extrakciu a vizualizáciu extrahovaných IMF a ERM pomocou algoritmov EMD v štúdii EEG.

Kľúčové slová: EEG EEGLAB panel nástrojov EMDLAB Empirický režim dekompozície Funkcie vnútorného režimu.


AI pre rozhrania mozog-počítač využívajúce EEG

Pokrok v oblasti umelej inteligencie si vyžiadal značné zlepšenia v spôsobe spracovania a dekódovania informácií z činnosti EEG. Nakoniec musí BCI na báze EEG transformovať hodnoty napätia namerané prostredníctvom elektród na digitálne príkazy na ovládanie zodpovedajúceho zariadenia. Aby sa uzavrela slučka medzi mozgom a zariadením, BCI vyžaduje algoritmy na spracovanie signálu, extrakciu funkcií a rozpoznávanie vzorov.

  • The spracovanie signálu zvyčajne zahŕňa použitie spektrálneho a priestorového filtrovania na maximalizáciu pomeru signálu k šumu, ako aj postupy na riešenie kontaminácie údajov EEG (tj. artefaktov) a zmien charakteristík signálu v záznamoch relácie k relácii ( tj nestacionárnosti). Po všetkých krokoch spracovania signálu je spravidla potrebné zjednodušiť tieto vysokodimenzionálne údaje zo senzorového priestoru na vektor vlastností, s ktorým môže pracovať klasifikátor/dekodér.
  • Extrakcia funkcií bol tradične založený na predchádzajúcich znalostiach ľudskej elektrofyziológie, aj keď niektoré moderné prístupy spoliehajúce sa na počítače s vysokým výpočtovým výkonom využívajú metodiky čiernej skrinky na automatické extrahovanie relevantných funkcií bez akýchkoľvek predchádzajúcich predpokladov.
  • S vektormi funkcií vypočítanými z tréningových dát, klasifikátor/dekodér je vyškolený, aby sa naučil detegovať stavy mozgu ktoré by malo byť spojené s riadiacimi príkazmi pre zariadenie. Akonáhle je klasifikátor vyškolený, môže sa použiť na vyhodnotenie nových, neviditeľných údajov na prevádzku v uzavretej slučke.

Rôzne výskumné laboratóriá na celom svete pracujú na zlepšení týchto troch výpočtových krokov (spracovanie signálu, extrakcia funkcií a klasifikácia/dekódovanie) a na prispôsobení rôznych metodík z oblasti AI konkrétnostiam údajov EEG. Klasifikačným metódam sa venuje väčšia pozornosť, pretože ich výstup sa bežne používa na hodnotenie výkonnosti BCI (napr. Presnosť klasifikácie). V tomto ohľade existuje obrovská škála klasifikátorov, ktoré boli hodnotené v oblasti BCI, od veľmi jednoduchých lineárnych prahov až po komplexné hlboké neurónové siete (Lotte et al., 2018).

Rôzne typy aplikácií vyžadujú rôzne prístupy k AI, aby maximalizovali úspech BCI. Napríklad v niektorých kontextoch chceme, aby sa používatelia učili a prispôsobovali svoje vzorce mozgu požadovanému stavu (napr. pri neurorehabilitácii, kde chceme zmeniť mozog, aby v dôsledku toho vyvolal niektoré zmeny v správaní). V takom prípade môže používateľovi stačiť jednoduchý lineárny klasifikátor, ktorý indikuje, či by aktivácia v konkrétnej oblasti mozgu mala byť vyššia alebo nižšia. Naopak, niektoré ďalšie aplikácie, ako napríklad ovládanie mozgu na invalidnom vozíku, vyžadujú komplexnejšie algoritmy na maximalizáciu presnosti dekódovaniaprispôsobenie sa konkrétnym modelom činnosti každého účastníka a snaha minimalizovať chyby.


Prípady na rozpoznávanie emócií

Úsmev - ste sledovaní. Trh s vizuálnou detekciou sa ohromne rozširuje. Nedávno sa odhadovalo, že globálny trh pokročilého rozpoznávania tváre porastie z 2,77 miliardy dolárov v roku 2015 na 6,19 miliardy dolárov v roku 2020. Rozpoznávanie emócií posúva jednoduchú detekciu/rozpoznanie tváre ešte o krok ďalej a prípady použitia sú takmer nekonečné.

Zjavný prípad použitia je v rámci skupinového testovania. Odozvu používateľov na videohry, reklamy alebo produkty je možné testovať vo väčšom meradle, pričom veľké množstvo dát sa hromadí automaticky, a teda aj efektívnejšie. Bentley použil rozpoznávanie výrazov tváre v marketingovej kampani na navrhovanie typov modelov automobilov na základe emocionálnych reakcií na určité podnety. Technológia, ktorá odhaľuje vaše pocity, bola tiež navrhnutá na rozpoznanie zápasiacich študentov v triede alebo na pomoc autistom lepšie komunikovať s ostatnými. Niektoré prípady použitia zahŕňajú:

  • Pomáha lepšie merať hodnotenia televízie.
  • Pridanie ďalšej bezpečnostnej vrstvy do zabezpečenia v nákupných centrách, na letiskách, v športových arénach a na ďalších verejných miestach s cieľom odhaliť škodlivý úmysel.
  • Nositeľné prvky, ktoré pomáhajú autistom rozoznávať emócie
  • Pozrite sa na pulty, virtuálne nákupy
  • Vytváranie nových zážitkov z virtuálnej reality

Algoritmy ukazujú presnosť merania bezvedomia v celkovej anestézii

Tri algoritmy sa naučili predpovedať pravdepodobnosť bezvedomia (spodný riadok) na základe mozgových rytmov, ako sú zobrazené v tomto spektrograme zaznamenanom od dobrovoľníka (horný riadok). Kredit: Brown Lab/MIT Picower Institute

Anestestikálne lieky pôsobia na mozog, ale väčšina anesteziológov sa spolieha na srdcovú frekvenciu, dychovú frekvenciu a pohyb, aby usúdila, či chirurgickí pacienti zostanú v požadovanom stupni v bezvedomí. V novej štúdii výskumný tím so sídlom vo všeobecnej nemocnici MIT a Massachusetts ukazuje, že priamy prístup k umelej inteligencii, prispôsobený druhu používaného anestetika, môže poskytnúť algoritmy, ktoré s vysokou presnosťou a spoľahlivosťou hodnotia bezvedomie u pacientov na základe mozgovej aktivity.

„Jedna z vecí, ktoré sú v hlavách anestéziológov predovšetkým, je: Mám pred sebou niekoho, kto leží pri vedomí a ja si to neuvedomujem? Schopnosť spoľahlivo udržať bezvedomie u pacienta počas chirurgického zákroku je zásadná pre to, čo robíme, "hovorí vedúci autor Emery N. Brown, Edward Hood Taplin, profesor na Inštitúte pre učenie a pamäť Picower a na Inštitúte lekárskeho inžinierstva a vedy na MIT, a anesteziológom v MGH. „Toto je dôležitý krok vpred.“

Brown dodáva, že nové algoritmy viac než len poskytujú dobrý odpočet bezvedomia, ale ponúkajú potenciál, ktorý umožní anesteziológom udržať ich na požadovanej úrovni pri použití menšieho množstva liečiva, ako by mohli podať, v závislosti od menej priamych, presných a spoľahlivých ukazovateľov. To môže zlepšiť pacientove pooperačné výsledky, ako je delírium.

„Možno budeme musieť byť vždy trochu„ cez palubu “,“ povedal Brown, ktorý je tiež profesorom Harvardskej lekárskej fakulty. „Môžeme to však urobiť s dostatočnou presnosťou, aby sme ľuďom nedávkovali viac, ako je potrebné?“

Algoritmy, ktoré sa používajú napríklad na poháňanie infúznej pumpy, by mohli pomôcť anesteziológom presne obmedziť dodávku lieku a optimalizovať stav pacienta a dávky, ktoré dostáva.

Umelá inteligencia, testovanie v reálnom svete

S cieľom vyvinúť technológiu, aby to urobili, viedli postdoktorandi John Abel a Marcus Badgeley štúdiu, publikovanú v PLUS JEDEN, v ktorom školili algoritmy strojového učenia na pozoruhodnom súbore údajov, ktoré laboratórium zhromaždilo v roku 2013. V tejto štúdii 10 zdravých dobrovoľníkov vo veku 20 rokov podstúpilo anestéziu s bežne používaným liekom propofol. Keďže dávka bola metodicky zvyšovaná pomocou počítačom riadeného podávania, dobrovoľníci boli požiadaní, aby odpovedali na jednoduchú požiadavku, kým už nebudú môcť. Keď boli potom privedení späť k vedomiu, pretože dávka bola neskôr znížená, boli schopní znova reagovať. Po celú dobu boli nervové rytmy odrážajúce ich mozgovú aktivitu zaznamenávané elektródami elektroencefalogramu (EEG), ktoré poskytujú priame prepojenie medzi nameranou aktivitou mozgu a prejaveným bezvedomím v reálnom čase.

V novej práci Abel, Badgeley a tím trénovali verzie svojich algoritmov AI, založené na rôznych základných štatistických metódach, na viac ako 33 000 dvojsekundových úryvkoch záznamov EEG od siedmich dobrovoľníkov. Algoritmy sa tak môžu „naučiť“ rozdielu medzi hodnotami EEG predpovedajúcimi vedomie a bezvedomie pod propofolom. Potom vedci testovali algoritmy tromi spôsobmi.

Najprv skontrolovali, či ich tri najsľubnejšie algoritmy presne predpovedali bezvedomie pri aplikácii na aktivitu EEG zaznamenané od ostatných troch dobrovoľníkov štúdie z roku 2013. Oni robili.

Potom použili algoritmy na analýzu EEG zaznamenaných od 27 skutočných chirurgických pacientov, ktorí dostali propofol na celkovú anestéziu. Aj keď sa algoritmy teraz uplatňovali na údaje zhromaždené z „hlučnejšieho“ chirurgického prostredia v reálnom svete, kde sa rytmy merali aj pomocou iného zariadenia, algoritmy stále rozlišovali bezvedomie s vyššou presnosťou, ako ukázali ostatné štúdie.Autori dokonca poukazujú na jeden prípad, v ktorom boli algoritmy schopné detekovať klesajúcu úroveň bezvedomia pacienta niekoľko minút pred tým, ako to urobil skutočný ošetrujúci anestéziológ, čo znamená, že keby sa používal počas samotného chirurgického zákroku, mohol poskytnúť presný a nápomocný skoré varovanie.

V treťom teste tím použil algoritmy na záznamy EEG od 17 chirurgických pacientov, ktorí boli anestetizovaní sevofluranom. Hoci savoflurán líši od propofolu a je vdychovaný, nie infúzny, funguje podobným spôsobom tak, že sa viaže na rovnaké receptory GABA-A na rovnakých kľúčových typoch mozgových buniek. Algoritmy tímu opäť pracovali s vysokou, aj keď trochu zníženou presnosťou, čo naznačuje, že ich schopnosť klasifikovať bezvedomie sa spoľahlivo preniesla na iné anestetikum, ktoré funguje podobným spôsobom.

Autori uviedli, že schopnosť predpovedať bezvedomie medzi rôznymi liekmi s rovnakým mechanizmom účinku je kľúčová. Jednou z hlavných nedostatkov súčasných systémov na monitorovanie vedomia založených na EEG je, že nerozlišujú medzi triedami liekov, aj keď rôzne kategórie liekov na anestéziu pôsobia veľmi odlišnými spôsobmi a vytvárajú odlišné vzorce EEG. Tiež dostatočne neberú ohľad na známe vekové rozdiely v reakcii mozgu na anestéziu. Tieto obmedzenia ich presnosti tiež obmedzili ich klinické použitie.

V novej štúdii, zatiaľ čo algoritmy vycvičené na 20-tich veciach sa dobre uplatnili na kohorty chirurgických pacientov, ktorých priemerný vek bol výrazne starší a širšie sa líšil, autori uznávajú, že chcú trénovať algoritmy zreteľne na použitie s deťmi alebo seniormi. Môžu tiež trénovať nové algoritmy, ktoré sa budú špecificky uplatňovať na iné druhy liekov s rôznymi mechanizmami účinku. Súbor dobre vyškolených a vyladených algoritmov by mohol spoločne poskytnúť vysokú presnosť, ktorá zodpovedá veku pacienta a používanému lieku.

Abel uviedol, že tímový prístup k rámcovaniu problému ako záležitosti predpovedania vedomia prostredníctvom EEG pre konkrétnu triedu drog zjednodušil implementáciu a rozšírenie prístupu strojového učenia.

„Toto je dôkaz konceptu, ktorý ukazuje, že teraz môžeme ísť povedať, že sa pozrieme na staršiu populáciu alebo sa pozrieme na iný druh drog,“ povedal. „Urobiť to je jednoduché, ak to nastavíte správnym spôsobom.“

Výsledné algoritmy nie sú ani výpočtovo náročné. Autori poznamenali, že na dané 2 sekundy údajov EEG by algoritmy dokázali presne predpovedať vedomie za menej ako desatinu sekundy bežiace iba na štandardnom počítači MacBook Pro.

Laboratórium už stavia na zisteniach, aby algoritmy ďalej zdokonalilo, povedal Brown. Povedal, že chce tiež rozšíriť testovanie na ďalšie stovky prípadov, aby sa ďalej potvrdila ich výkonnosť, a tiež zistiť, či sa medzi rôznymi základnými štatistickými modelmi, ktoré tím použil, môžu začať objavovať širšie rozdiely.


Účinky počítačového školenia o pracovnej pamäti s hodnotením na základe EEG-

Pretože sa zdá, že tréning ovplyvňuje pracovnú pamäť, včasné hodnotenie a školenie môže pomôcť zlepšiť kapacitu pracovnej pamäte. Cieľom tejto štúdie bolo vyvinúť počítačovú platformu, ktorá využíva elektroencefalografiu (EEG) na skúmanie účinkov tréningu pracovnej pamäte.

Metódy

Platforma zahŕňala dva systémy: (i) v systéme hodnotenia sme navrhli paradigmy n-back a odhadovaný synchronizačný index medzi pásmami theta a gama s overením indexu pracovnej pamäte (WMI), zatiaľ čo (ii) v systéme zlepšení sme navrhli pracovné úlohy školenia pamäte založené na troch kategóriách-numerická verzia úlohy s komplexným rozpätím, verzia úlohy na prepínanie úloh založená na obrázku a maticová verzia vzorovej úlohy. Dvadsaťosem zdravých dobrovoľníkov bolo náhodne zaradených do pasívnej kontrolnej a experimentálnej skupiny.

Výsledky

Významné korelácie medzi WMI a úrovňou obtiažnosti boli zistené pre numerickú úlohu komplexného rozpätia a úlohu integrácie vzorov, čo naznačovalo, že tréning môže zlepšiť výkon pracovnej pamäte. Analýza spojenia EEG ďalej odhalila významne odlišné vo fáze theta-pásma a vysokopásmovom výkone v gama pásme (t.j. 70-90 Hz) pri FC1, ktoré by bolo možné použiť na odhalenie vzťahov s pracovnou pamäťou.

Záver

Systém odhadujúci reakcie mozgových vĺn poskytol doplnkový spôsob kvantifikácie stupňa pracovnej pamäte inak ako pomocou psychofyzického dotazníka. Navyše by mohol byť jednoducho a rýchlo upravený na implementáciu rôznych školiacich úloh s funkciami flexibility, nízkymi nákladmi a minimálnym časom vývoja.


EMDLAB: Súbor nástrojov na analýzu jednorazovej dynamiky EEG pomocou rozkladu v empirickom režime

Pozadie: Empirický režim dekompozície (EMD) je empirická technika rozkladu údajov. V poslednej dobe rastie záujem o aplikáciu EMD v biomedicínskej oblasti.

Nová metóda: EMDLAB je rozšíriteľný doplnok pre súbor nástrojov EEGLAB, čo je otvorené softvérové ​​prostredie pre analýzu elektrofyziologických údajov.

Výsledky: EMDLAB je možné použiť na jednoduché a efektívne vykonávanie štyroch bežných typov EMD: obyčajný EMD, súborový EMD (EEMD), vážený posuvný EMD (wSEMD) a viacrozmerný EMD (MEMD) na údajoch EEG. EMDLAB je navyše užívateľsky príjemný súbor nástrojov a je úzko implementovaný v súbore nástrojov EEGLAB.

Porovnanie s existujúcimi metódami: EMDLAB získava výhodu oproti iným balíkom nástrojov s otvoreným zdrojovým kódom využívaním výhodných vizualizačných schopností EEGLAB pre extrahované funkcie vnútorného režimu (IMF) a režimy súvisiace s udalosťami (ERM) signálu.

Závery: EMDLAB je spoľahlivé, efektívne a automatizované riešenie na extrakciu a vizualizáciu extrahovaných IMF a ERM pomocou algoritmov EMD v štúdii EEG.

Kľúčové slová: EEG EEGLAB panel nástrojov EMDLAB Empirický režim dekompozície Funkcie vnútorného režimu.


Účinky počítačového školenia o pracovnej pamäti s hodnotením na základe EEG-

Pretože sa zdá, že tréning ovplyvňuje pracovnú pamäť, včasné hodnotenie a školenie môže pomôcť zlepšiť kapacitu pracovnej pamäte. Cieľom tejto štúdie bolo vyvinúť počítačovú platformu, ktorá využíva elektroencefalografiu (EEG) na skúmanie účinkov tréningu pracovnej pamäte.

Metódy

Platforma zahŕňala dva systémy: (i) v systéme hodnotenia sme navrhli paradigmy n-back a odhadovaný synchronizačný index medzi pásmami theta a gama s overením indexu pracovnej pamäte (WMI), zatiaľ čo (ii) v systéme zlepšení sme navrhli pracovné úlohy školenia pamäte založené na troch kategóriách-numerická verzia úlohy s komplexným rozpätím, verzia úlohy na prepínanie úloh založená na obrázku a maticová verzia vzorovej úlohy. Dvadsaťosem zdravých dobrovoľníkov bolo náhodne zaradených do pasívnej kontrolnej a experimentálnej skupiny.

Výsledky

Významné korelácie medzi WMI a úrovňou obtiažnosti boli zistené pre numerickú úlohu komplexného rozpätia a úlohu integrácie vzorov, čo naznačovalo, že tréning môže zlepšiť výkon pracovnej pamäte. Analýza spojenia EEG ďalej odhalila významne odlišné vo fáze theta-pásma a vysokopásmovom výkone v gama pásme (t.j. 70-90 Hz) pri FC1, ktoré by bolo možné použiť na odhalenie vzťahov s pracovnou pamäťou.

Záver

Systém odhadujúci reakcie mozgových vĺn poskytol doplnkový spôsob kvantifikácie stupňa pracovnej pamäte inak ako pomocou psychofyzického dotazníka. Navyše by mohol byť jednoducho a rýchlo upravený na implementáciu rôznych školiacich úloh s funkciami flexibility, nízkymi nákladmi a minimálnym časom vývoja.


Prípady na rozpoznávanie emócií

Úsmev - ste sledovaní. Trh s vizuálnou detekciou sa ohromne rozširuje. Nedávno sa odhadovalo, že globálny trh pokročilého rozpoznávania tváre porastie z 2,77 miliardy dolárov v roku 2015 na 6,19 miliardy dolárov v roku 2020. Rozpoznávanie emócií posúva jednoduchú detekciu/rozpoznanie tváre ešte o krok ďalej a prípady použitia sú takmer nekonečné.

Zjavný prípad použitia je v rámci skupinového testovania. Odozvu používateľov na videohry, reklamy alebo produkty je možné testovať vo väčšom meradle, pričom veľké množstvo dát sa hromadí automaticky, a teda aj efektívnejšie. Bentley použil rozpoznávanie výrazov tváre v marketingovej kampani na navrhovanie typov modelov automobilov na základe emocionálnych reakcií na určité podnety. Technológia, ktorá odhaľuje vaše pocity, bola tiež navrhnutá na rozpoznanie zápasiacich študentov v triede alebo na pomoc autistom lepšie komunikovať s ostatnými. Niektoré prípady použitia zahŕňajú:

  • Pomáha lepšie merať hodnotenia televízie.
  • Pridanie ďalšej bezpečnostnej vrstvy do zabezpečenia v nákupných centrách, na letiskách, v športových arénach a na ďalších verejných miestach s cieľom odhaliť škodlivý úmysel.
  • Nositeľné prvky, ktoré pomáhajú autistom rozoznávať emócie
  • Pozrite sa na pulty, virtuálne nákupy
  • Vytváranie nových zážitkov z virtuálnej reality

AI pre rozhrania mozog-počítač využívajúce EEG

Pokrok v oblasti umelej inteligencie si vyžiadal značné zlepšenia v spôsobe spracovania a dekódovania informácií z činnosti EEG. Nakoniec musí BCI na báze EEG transformovať hodnoty napätia namerané prostredníctvom elektród na digitálne príkazy na ovládanie zodpovedajúceho zariadenia. Aby sa uzavrela slučka medzi mozgom a zariadením, BCI vyžaduje algoritmy na spracovanie signálu, extrakciu funkcií a rozpoznávanie vzorov.

  • The spracovanie signálu zvyčajne zahŕňa použitie spektrálneho a priestorového filtrovania na maximalizáciu pomeru signálu k šumu, ako aj postupy na riešenie kontaminácie údajov EEG (tj. artefaktov) a zmien charakteristík signálu v záznamoch relácie k relácii ( tj nestacionárnosti). Po všetkých krokoch spracovania signálu je spravidla potrebné zjednodušiť tieto vysokodimenzionálne údaje zo senzorového priestoru na vektor vlastností, s ktorým môže pracovať klasifikátor/dekodér.
  • Extrakcia funkcií bol tradične založený na predchádzajúcich znalostiach ľudskej elektrofyziológie, aj keď niektoré moderné prístupy spoliehajúce sa na počítače s vysokým výpočtovým výkonom využívajú metodiky čiernej skrinky na automatické extrahovanie relevantných funkcií bez akýchkoľvek predchádzajúcich predpokladov.
  • S vektormi funkcií vypočítanými z tréningových dát, klasifikátor/dekodér je vyškolený, aby sa naučil detegovať stavy mozgu ktoré by malo byť spojené s riadiacimi príkazmi pre zariadenie. Akonáhle je klasifikátor vyškolený, môže sa použiť na vyhodnotenie nových, neviditeľných údajov na prevádzku v uzavretej slučke.

Rôzne výskumné laboratóriá na celom svete pracujú na zlepšení týchto troch výpočtových krokov (spracovanie signálu, extrakcia funkcií a klasifikácia/dekódovanie) a na prispôsobení rôznych metodík z oblasti AI konkrétnostiam údajov EEG. Klasifikačným metódam sa venuje väčšia pozornosť, pretože ich výstup sa bežne používa na hodnotenie výkonnosti BCI (napr. Presnosť klasifikácie). V tomto ohľade existuje obrovská škála klasifikátorov, ktoré boli hodnotené v oblasti BCI, od veľmi jednoduchých lineárnych prahov až po komplexné hlboké neurónové siete (Lotte et al., 2018).

Rôzne typy aplikácií vyžadujú rôzne prístupy k AI, aby maximalizovali úspech BCI. Napríklad v niektorých kontextoch chceme, aby sa používatelia učili a prispôsobovali svoje vzorce mozgu požadovanému stavu (napr. pri neurorehabilitácii, kde chceme zmeniť mozog, aby v dôsledku toho vyvolal niektoré zmeny v správaní). V takom prípade môže používateľovi stačiť jednoduchý lineárny klasifikátor, ktorý indikuje, či by aktivácia v konkrétnej oblasti mozgu mala byť vyššia alebo nižšia. Naopak, niektoré ďalšie aplikácie, ako napríklad ovládanie mozgu na invalidnom vozíku, vyžadujú komplexnejšie algoritmy na maximalizáciu presnosti dekódovaniaprispôsobenie sa konkrétnym modelom činnosti každého účastníka a snaha minimalizovať chyby.


Úvod

Klasifikácia emócií vyžaduje štúdium rôznych faktorov a premenných vrátane emócií šťastia alebo hnevu zdravého rozumu s rôznym stupňom. Tieto vlastnosti a intenzity sú pre ľudstvo druhou prirodzenosťou a ich detekcia softvérom na rozpoznávanie tváre sa ukázala byť náročná a nákladná [1].

Elektroencefalogram (EEG) je široko používanou neuro-zobrazovacou metódou, ktorá môže merať potenciálne zmeny napätí spôsobené vystreľovaním elektrických impulzov neurónov, detegovaných na temene hlavy a zachytených zariadením obsahujúcim vzor elektród. Signály EEG sú spravidla kategorizované na základe ich frekvencie a sú rozdelené do piatich hlavných pásiem: delta pásmo od 0,5 do 3 Hz, pásmo theta od 4 do 7 Hz, alfa pásmo od 8 do 13 Hz, beta pásmo 14 až 30 Hz a pásmo gama viac ako 30 Hz. Každé z týchto spektier je vo všeobecnosti spojené s nejakým druhom činnosti, ako je pohyb prstov, spánok, aktívne myslenie alebo riešenie problémov. EEG sa používa v počítačových rozhraniach mozgu (BCI), ktoré umožňujú ľudskému subjektu a počítaču komunikovať bez kontaktu. Aplikácie tohto výskumu získavajú na popularite v oblasti afektívnych počítačov, ktorých cieľom je porozumieť stavom ľudskej mysle [2]. V súčasnej dobe sú dobre známe rôzne paradigmy BCI založené na EEG [3].

Emócie sú všadeprítomné a sú základným aspektom ľudskej existencie [1]. Správanie subjektu môže výrazne ovplyvniť spôsob jeho komunikácie a priamo ovplyvniť jeho každodenné činnosti. Emócie tiež zohrávajú zásadnú úlohu v každodennej komunikácii. Jednoduché vyslovenie „ok“ môže mať iný význam v závislosti od kontextu, ktorý môže sprostredkovať ľútosť, smútok, hnev, šťastie alebo dokonca znechutenie, ale úplný význam je možné pochopiť pomocou výrazov tváre, gest rúk a iných neverbálnych komunikačných prostriedkov. Výskum v oblasti BCI na zisťovanie pocitov pomocou počítačov zaznamenal za posledné dve desaťročia exponenciálny rast. Príkladom tohto výskumu je použitie údajov zo senzorov EEG na detekciu emócií [4] spolu s použitím tvárových markerov alebo ich fúzia s telesnými signálmi, ako je rozšírenie zrenice [5]. Meranie emócií priamo z mozgu je nový prístup a teoreticky môže eliminovať klamanie subjektov alebo neschopnosť prejaviť emócie v dôsledku postihnutia, čo naznačuje, že extrakciu znakov zo signálov EEG je možné ľahšie rozlíšiť.

Tento výskum si kladie za cieľ uplatniť rôzne klasické algoritmy strojového učenia a porovnať ich na základe hodnoty p, minimálnej chyby, presnosti, presnosti a skóre f, s cieľom ďalej zlepšiť výkon s redukciou rozmerov a získať skryté informácie, ako je navrhnuté v [ 6, 7]. Klasické algoritmy strojového učenia majú v konkrétnych aplikáciách spravidla lepší výkon než umelé neurónové siete (ANN) a hlboké neurónové siete (DNN), pretože získavajú lepšiu presnosť. Na zúženie stupňa každej vzorky boli použité tri rôzne triedy pozitívnych, neutrálnych a negatívnych.

Nasledujú niektoré z technických prínosov pre oblasť neurovedy a informatiky, ktoré sú výsledkom tohto projektu:

Súbory údajov sú vopred spracované a skombinované do nového veľkého súboru údajov.

Metodika pracovného toku je ľahko reprodukovateľná.

Identifikácia najlepšieho klasifikačného algoritmu, ktorý sa má použiť pre každú emóciu.

Presnosť každého klasifikačného modelu pre údaje EEG.

Prístup údajov k časovej segmentácii prináša lepšie vlastnosti pre klasifikátory.

Analýza a vizualizácie súboru údajov „Analýza emócií pomocou eeg, fyziologických a video signálov“ (DEAP).

Je zaujímavé poznamenať, že súbor údajov DEAP je agregáciou rôznych údajov, pretože pri zbere údajov boli použité rôzne rýchlosti vzorkovania a boli vykonané rôzne typy testov. Agregácia týchto údajov do 1 komplexnej množiny údajov ukazuje veľký objem údajov, najmä keď sa do množiny údajov pridajú záznamy tváre. Je zaistené, že s týmito surovými údajmi nemožno manipulovať, pretože súbory sú určené len na čítanie, okrem toho bol zber údajov vykonaný 5 krát pre každý test, aby sa zaistili dôveryhodné údaje.

Nasledujúce časti článku vysvetľujú podrobný pracovný postup a organizáciu vykonaného výskumu. Súvisiace práce/prehľad literatúry sú vysvetlené v časti „Súvisiaca práca“. Algoritmy, metodiky v širšom zmysle sú vysvetlené v časti „Predbežné opatrenia“. Navrhovaná postupná implementácia algoritmu a vysvetlenia a pomocnosť podprogramov sú uvedené v časti „Metódy“. Popisy množín údajov sú uvedené v sekcii „Údaje“. „Experimentálne nastavenie“ definuje odporúčaný hardvér a softvér použitý na replikáciu výsledkov. V časti „Experimentálne výsledky“ sa diskutuje o experimentálnych výsledkoch. Záverečné poznámky a budúci výskum sú uvedené v časti „Záver“.


Algoritmy ukazujú presnosť merania bezvedomia v celkovej anestézii

Tri algoritmy sa naučili predpovedať pravdepodobnosť bezvedomia (spodný riadok) na základe mozgových rytmov, ako sú zobrazené v tomto spektrograme zaznamenanom od dobrovoľníka (horný riadok). Kredit: Brown Lab/MIT Picower Institute

Anestestikálne lieky pôsobia na mozog, ale väčšina anesteziológov sa spolieha na srdcovú frekvenciu, dychovú frekvenciu a pohyb, aby usúdila, či chirurgickí pacienti zostanú v požadovanom stupni v bezvedomí. V novej štúdii výskumný tím so sídlom vo všeobecnej nemocnici MIT a Massachusetts ukazuje, že priamy prístup k umelej inteligencii, prispôsobený druhu používaného anestetika, môže poskytnúť algoritmy, ktoré s vysokou presnosťou a spoľahlivosťou hodnotia bezvedomie u pacientov na základe mozgovej aktivity.

„Jedna z vecí, ktoré sú v hlavách anestéziológov predovšetkým, je: Mám pred sebou niekoho, kto leží pri vedomí a ja si to neuvedomujem? Schopnosť spoľahlivo udržať bezvedomie u pacienta počas chirurgického zákroku je zásadná pre to, čo robíme, "hovorí vedúci autor Emery N. Brown, Edward Hood Taplin, profesor na Inštitúte pre učenie a pamäť Picower a na Inštitúte lekárskeho inžinierstva a vedy na MIT, a anesteziológom v MGH. „Toto je dôležitý krok vpred.“

Brown dodáva, že nové algoritmy viac než len poskytujú dobrý odpočet bezvedomia, ale ponúkajú potenciál, ktorý umožní anesteziológom udržať ich na požadovanej úrovni pri použití menšieho množstva liečiva, ako by mohli podať, v závislosti od menej priamych, presných a spoľahlivých ukazovateľov. To môže zlepšiť pacientove pooperačné výsledky, ako je delírium.

„Možno budeme musieť byť vždy trochu„ cez palubu “,“ povedal Brown, ktorý je tiež profesorom Harvardskej lekárskej fakulty. „Môžeme to však urobiť s dostatočnou presnosťou, aby sme ľuďom nedávkovali viac, ako je potrebné?“

Algoritmy, ktoré sa používajú napríklad na poháňanie infúznej pumpy, by mohli pomôcť anesteziológom presne obmedziť dodávku lieku a optimalizovať stav pacienta a dávky, ktoré dostáva.

Umelá inteligencia, testovanie v reálnom svete

S cieľom vyvinúť technológiu, aby to urobili, viedli postdoktorandi John Abel a Marcus Badgeley štúdiu, publikovanú v PLUS JEDEN, v ktorom školili algoritmy strojového učenia na pozoruhodnom súbore údajov, ktoré laboratórium zhromaždilo v roku 2013. V tejto štúdii 10 zdravých dobrovoľníkov vo veku 20 rokov podstúpilo anestéziu s bežne používaným liekom propofol. Keďže dávka bola metodicky zvyšovaná pomocou počítačom riadeného podávania, dobrovoľníci boli požiadaní, aby odpovedali na jednoduchú požiadavku, kým už nebudú môcť. Keď boli potom privedení späť k vedomiu, pretože dávka bola neskôr znížená, boli schopní znova reagovať. Po celú dobu boli nervové rytmy odrážajúce ich mozgovú aktivitu zaznamenávané elektródami elektroencefalogramu (EEG), ktoré poskytujú priame prepojenie medzi nameranou aktivitou mozgu a prejaveným bezvedomím v reálnom čase.

V novej práci Abel, Badgeley a tím trénovali verzie svojich algoritmov AI, založené na rôznych základných štatistických metódach, na viac ako 33 000 dvojsekundových úryvkoch záznamov EEG od siedmich dobrovoľníkov. Algoritmy sa tak môžu „naučiť“ rozdielu medzi hodnotami EEG predpovedajúcimi vedomie a bezvedomie pod propofolom. Potom vedci testovali algoritmy tromi spôsobmi.

Najprv skontrolovali, či ich tri najsľubnejšie algoritmy presne predpovedali bezvedomie pri aplikácii na aktivitu EEG zaznamenané od ostatných troch dobrovoľníkov štúdie z roku 2013. Oni robili.

Potom použili algoritmy na analýzu EEG zaznamenaných od 27 skutočných chirurgických pacientov, ktorí dostali propofol na celkovú anestéziu. Aj keď sa algoritmy teraz uplatňovali na údaje zhromaždené z „hlučnejšieho“ chirurgického prostredia v reálnom svete, kde sa rytmy merali aj pomocou iného zariadenia, algoritmy stále rozlišovali bezvedomie s vyššou presnosťou, ako ukázali ostatné štúdie. Autori dokonca poukazujú na jeden prípad, v ktorom boli algoritmy schopné detekovať klesajúcu úroveň bezvedomia pacienta niekoľko minút pred tým, ako to urobil skutočný ošetrujúci anestéziológ, čo znamená, že keby sa používal počas samotného chirurgického zákroku, mohol poskytnúť presný a nápomocný skoré varovanie.

V treťom teste tím použil algoritmy na záznamy EEG od 17 chirurgických pacientov, ktorí boli anestetizovaní sevofluranom. Hoci savoflurán líši od propofolu a je vdychovaný, nie infúzny, funguje podobným spôsobom tak, že sa viaže na rovnaké receptory GABA-A na rovnakých kľúčových typoch mozgových buniek. Algoritmy tímu opäť pracovali s vysokou, aj keď trochu zníženou presnosťou, čo naznačuje, že ich schopnosť klasifikovať bezvedomie sa spoľahlivo preniesla na iné anestetikum, ktoré funguje podobným spôsobom.

Autori uviedli, že schopnosť predpovedať bezvedomie medzi rôznymi liekmi s rovnakým mechanizmom účinku je kľúčová. Jednou z hlavných nedostatkov súčasných systémov na monitorovanie vedomia založených na EEG je, že nerozlišujú medzi triedami liekov, aj keď rôzne kategórie liekov na anestéziu pôsobia veľmi odlišnými spôsobmi a vytvárajú odlišné vzorce EEG. Tiež dostatočne neberú ohľad na známe vekové rozdiely v reakcii mozgu na anestéziu. Tieto obmedzenia ich presnosti tiež obmedzili ich klinické použitie.

V novej štúdii, zatiaľ čo algoritmy vycvičené na 20-tich veciach sa dobre uplatnili na kohorty chirurgických pacientov, ktorých priemerný vek bol výrazne starší a širšie sa líšil, autori uznávajú, že chcú trénovať algoritmy zreteľne na použitie s deťmi alebo seniormi. Môžu tiež trénovať nové algoritmy, ktoré sa budú špecificky uplatňovať na iné druhy liekov s rôznymi mechanizmami účinku. Súbor dobre vyškolených a vyladených algoritmov by mohol spoločne poskytnúť vysokú presnosť, ktorá zodpovedá veku pacienta a používanému lieku.

Abel uviedol, že tímový prístup k rámcovaniu problému ako záležitosti predpovedania vedomia prostredníctvom EEG pre konkrétnu triedu drog zjednodušil implementáciu a rozšírenie prístupu strojového učenia.

„Toto je dôkaz konceptu, ktorý ukazuje, že teraz môžeme ísť povedať, že sa pozrieme na staršiu populáciu alebo sa pozrieme na iný druh drog,“ povedal. „Urobiť to je jednoduché, ak to nastavíte správnym spôsobom.“

Výsledné algoritmy nie sú ani výpočtovo náročné. Autori poznamenali, že na dané 2 sekundy údajov EEG by algoritmy dokázali presne predpovedať vedomie za menej ako desatinu sekundy bežiace iba na štandardnom počítači MacBook Pro.

Laboratórium už stavia na zisteniach, aby algoritmy ďalej zdokonalilo, povedal Brown. Povedal, že chce tiež rozšíriť testovanie na ďalšie stovky prípadov, aby sa ďalej potvrdila ich výkonnosť, a tiež zistiť, či sa medzi rôznymi základnými štatistickými modelmi, ktoré tím použil, môžu začať objavovať širšie rozdiely.


V závislosti od kódu: výhody a nevýhody veku algoritmu

(filistimlyanin/iStock.com)

Algoritmy sú pokyny na riešenie problému alebo dokončenie úlohy. Recepty sú algoritmy, rovnako ako matematické rovnice. Počítačový kód je algoritmický. Internet beží na algoritmoch a všetky online vyhľadávania sa vykonávajú prostredníctvom nich. Vďaka algoritmom vie e -mail, kam ísť. Aplikácie pre smartfóny nie sú nič iné ako algoritmy. Počítačové hry a videohry sú algoritmickým rozprávaním príbehov. Webové zoznamky a webové stránky s odporúčaním kníh a cestovaním by bez algoritmov nefungovali. Mapovacie systémy GPS dostávajú ľudí z bodu A do bodu B pomocou algoritmov. Umelá inteligencia (AI) nie je nič iné ako algoritmy. Materiál, ktorý ľudia vidia na sociálnych médiách, im prinášajú algoritmy. V skutočnosti všetko, čo ľudia vidia a robia na webe, je výsledkom algoritmov. Zakaždým, keď niekto zoradí stĺpček v tabuľke, sú k dispozícii algoritmy a väčšina finančných transakcií sa dnes vykonáva pomocou algoritmov. Algoritmy pomáhajú pomôckam reagovať na hlasové príkazy, rozpoznávať tváre, triediť fotografie a stavať a riadiť autá. Algoritmy zneužívania hackerov, kyberútokov a kryptografických kódov. V súčasnosti sa objavujú algoritmy samoučenia a programovania, takže je možné, že v budúcnosti budú algoritmy písať mnoho, ak nie väčšinu algoritmov.

Algoritmy sú často elegantné a neuveriteľne užitočné nástroje používané na plnenie úloh. Sú to väčšinou neviditeľné pomôcky, ktoré stále neuveriteľným spôsobom rozširujú ľudské životy. Niekedy však aplikácia algoritmov vytvorených s dobrým úmyslom vedie k nezamýšľaným následkom. Nedávne správy nadväzujú na tieto obavy:

  • 7. októbra 2016 hodnota britskej libry v sekundách klesla o 6,1%, čiastočne kvôli obchodom s menami spusteným algoritmami.
  • Inžinieri spoločnosti Microsoft vytvorili na jar minulého roku twitterového robota s názvom „Tay“ v snahe chatovať s Millennials tým, že reagovali na ich výzvy, ale v priebehu niekoľkých hodín vychrlil rasistické, sexistické a popierajúce tweety popierajúce holokaust na základe algoritmov, vďaka ktorým sa „naučili“ ako reagovať na ostatných podľa toho, čo sa na ňom tweetovalo.
  • Facebook sa pokúsil vytvoriť funkciu na zvýraznenie trendových tém z celého webu v informačných kanáloch ľudí. Najprv to nechalo tím ľudí upraviť funkciu, ale kontroverzia vypukla, keď niektorí obvinili platformu z zaujatosti voči konzervatívcom. Facebook potom prácu zmenil na algoritmy, aby zistil, že nedokážu rozpoznať skutočné správy od falošných správ.
  • Cathy O'Neil, autorka Zbrane deštrukcie matematiky: Ako veľké dáta zvyšujú nerovnosť a ohrozujú demokraciu, poukázal na to, že prediktívna analýza založená na algoritmoch má tendenciu trestať chudobných, pričom ako príklad uvádza algoritmické postupy prijímania zamestnancov.
  • Dobre mienené algoritmy môžu sabotovať zlí herci. 21. októbra 2016 postihlo východné pobrežie USA spomalenie internetu po tom, čo hackeri bombardovali Dyn DNS, obsluhujúceho internetový prenos, informáciami, ktoré preťažili jeho okruhy a spustili novú éru internetových útokov poháňaných zariadeniami pripojenými k internetu. Potom, čo expert na bezpečnosť internetu Bruce Schneier v septembri varoval, že „Niekto sa učí, ako zbúrať internet“. A zneužívanie algoritmu Facebook News Feed a všeobecné vyhlasovanie falošných správ online sa stali kontroverznými v priebehu prezidentských volieb v USA v roku 2016.
  • Vedec Andrew Tutt vyzval na „FDA pre algoritmy“ a poznamenal: „Vzostup stále komplexnejších algoritmov si vyžaduje kritické premýšľanie o tom, ako najlepšie predchádzať škodám, ktoré spôsobujú, odrádzať od nich a ako ich kompenzovať ... Algoritmická regulácia bude vyžadovať federálnu jednotnosť, odborný úsudok, politickú nezávislosť a kontrolu pred uvedením na trh, aby sa zabránilo-bez potlačovania inovácií-zavádzaniu neprijateľne nebezpečných algoritmov na trh. “
  • Biely dom vydal v októbri 2016 dve správy podrobne popisujúce pokrok algoritmov a umelej inteligencie a plány na riešenie problémov, ktoré s tým súvisia, a vydal decembrovú správu, v ktorej načrtol niektoré z potenciálnych účinkov automatizácie poháňanej AI na americký trh práce a ekonomiku .
  • 17. januára 2017 Inštitút budúcnosti života zverejnil zoznam 23 princípov prospešnej umelej inteligencie, ktorý vytvorilo stretnutie zainteresovaných vedcov na konferencii v Asimolar v Pacific Grove v Kalifornii. Medzi viac ako 1 600 signatármi boli Steven Hawking, Elon Musk, Ray Kurzweil a stovky popredných svetových vedcov v oblasti umelej inteligencie.

Používanie algoritmov sa šíri, pretože firmy a vlády vytvárajú, zachytávajú a analyzujú obrovské množstvo údajov. Niektorí to nazývajú vekom algoritmov a predpovedajú, že budúcnosť algoritmov je spojená so strojovým učením a hlbokým učením, ktoré bude stále rýchlejšie a rýchlejšie.

Aj keď mnohé posmrtné prezidentské voľby v USA v roku 2016 zaznamenali revolučný vplyv webových nástrojov na ovplyvnenie jeho výsledku, generálny riaditeľ Nadácie XPrize Peter Diamandis predpovedal, že „päť veľkých technologických trendov urobí tieto voľby krotkými“. Povedal, že pokroky v kvantovom výpočte a rýchly vývoj agentov AI a AI zabudovaných do systémov a zariadení na internete vecí povedú k hyper-stalkingu, ovplyvňovaniu a formovaniu voličov a hyper-personalizovaným reklamám a vytvoria nové spôsoby, ako skresľovať realitu a udržiavať klamstvá.

Analytici ako Aneesh Aneesh zo Stanfordskej univerzity predpokladajú algoritmy preberajúce verejné a súkromné ​​aktivity v novej ére „algokratického riadenia“, ktorá nahrádza „byrokratickú hierarchiu“. Iní, ako napríklad Harvardova Shoshana Zuboff, opisujú vznik „dozorného kapitalizmu“, ktorý organizuje ekonomické správanie v „informačnej civilizácii“.

Aby sa objasnili súčasné postoje k potenciálnym vplyvom algoritmov v nasledujúcom desaťročí, Pew Research Center a Elon University's Imagining the Internet Center uskutočnili rozsiahle zhromaždenie technologických expertov, vedcov, praktických lekárov a vládnych lídrov. Na túto otázku, čo sa stane v nasledujúcom desaťročí, odpovedalo približne 1 302:

Bude čistý celkový účinok algoritmov pozitívny pre jednotlivcov a spoločnosť alebo negatívny pre jednotlivcov a spoločnosť?

Nevedeckým prieskumom sa zistilo, že 38% týchto konkrétnych respondentov predpovedalo, že pozitívne vplyvy algoritmov prevážia nad negatívami pre jednotlivcov a spoločnosť vo všeobecnosti, zatiaľ čo 37% uvedených záporákov preváži nad kladmi, 25% uviedlo, že celkový vplyv algoritmov bude približne 50. -50, pozitívne-negatívne. [Ďalšie podrobnosti o medziach tejto vzorky nájdete v časti „O tomto získavaní odborníkov“.]

Účastníci boli požiadaní, aby vysvetlili svoje odpovede a väčšina napísala podrobné rozpracovania, ktoré poskytujú pohľady na nádejné trendy a trendy. Respondenti mohli reagovať anonymne, čo predstavuje malú väčšinu písomných vypracovaní. Tieto zistenia nereprezentujú všetky uhly pohľadu, ktoré je možné na takúto otázku položiť, ale odhaľujú širokú škálu cenných pozorovaní založených na súčasných trendoch.

V ďalšej časti ponúkame stručný prehľad siedmich kľúčových tém nachádzajúcich sa medzi písomnými spracovaniami. Po tejto úvodnej časti je oveľa hlbší pohľad na myšlienky respondentov spojené s každou z týchto tém. Všetky reakcie sú štýlovo upravované.

Téma 1: Algoritmy sa budú naďalej šíriť všade

Medzi týmito respondentmi existuje pomerne jednotná zhoda v tom, že algoritmy sú pre verejnosť spravidla neviditeľné a že v nasledujúcom desaťročí dôjde k exponenciálnemu nárastu ich vplyvu.

Reprezentatívne vyhlásenie tohto názoru pochádza z Barry Chudakov, zakladateľ a riaditeľ spoločností Sertain Research a StreamFuzion Corp. Odpovedal:

"" Ak by každý algoritmus zrazu prestal fungovať, bol by to koniec sveta, ako ho poznáme. "(Pedro Domingo Hlavný algoritmus). Fakt: Náš svet sme už obrátili na strojové učenie a algoritmy. Otázkou teraz je, ako lepšie porozumieť a riadiť to, čo sme urobili?

"Algoritmy sú užitočným artefaktom na začatie diskusie o širšom probléme účinkov asistencií podporujúcich technológie v našich životoch." Totiž, ako ich môžeme vidieť pri práci? Zvážiť a posúdiť ich predpoklady? A čo je najdôležitejšie pre tých, ktorí nevytvárajú algoritmy na živobytie - ako sa poučíme o tom, ako fungujú, kde pôsobia, aké predpoklady a predpojatosti sú im vlastné a ako ich udržať transparentné? Ako ryby v nádrži ich vidíme plávať a dávame na ne pozor.

Fakt: Náš svet sme už obrátili na strojové učenie a algoritmy. Otázkou teraz je, ako lepšie porozumieť a riadiť to, čo sme urobili?
Barry Chudakov

"Algoritmy sú novými arbitrami ľudského rozhodovania v takmer akejkoľvek oblasti, akú si dokážeme predstaviť, od sledovania filmu (rozpoznávanie emócií Affectiva) cez kúpu domu (Zillow.com) až po samoriadiace autá (Google). Deloitte Global predpovedala, že viac ako 80 zo 100 najväčších svetových spoločností zaoberajúcich sa softvérovým podnikom bude mať do svojich produktov integrované kognitívne technológie - sprostredkované algoritmami - do konca roku 2016. Ako píšu Brian Christian a Tom Griffiths v Algoritmy, podľa ktorých sa treba riadiťAlgoritmy poskytujú „lepší štandard, na základe ktorého je možné porovnávať samotné ľudské poznanie.“ Sú tiež podnetom na zváženie toho istého poznania: Ako uvažujeme a čo znamená myslieť prostredníctvom algoritmov na sprostredkovanie nášho sveta?

„Hlavným pozitívnym výsledkom je lepšie porozumenie racionálnym rozhodnutiam a v tomto prípade lepšie porozumenie sebe samému. Koniec koncov, algoritmy sú generované pokusom a omylom, testovaním, pozorovaním a prechodom na určité matematické vzorce týkajúce sa volieb, ktoré boli robené znova a znova - a to je možné použiť na ťažké voľby a problémy, najmä keď intuitívne nemôžeme byť pripravení nájdete odpoveď alebo spôsob, ako problém vyriešiť. Pravidlo 37%, optimálne zastavenie a ďalšie algoritmické závery sú príručky založené na dôkazoch, ktoré nám umožňujú používať múdrosť a matematicky overené kroky na lepšie rozhodovanie.

"Sekundárnym pozitívnym výsledkom je konektivita." V technologickej rekapitulácii toho, čo duchovní učitelia hovorili po stáročia, naše veci ukazujú, že všetko je - alebo môže byť - spojené so všetkým ostatným. Algoritmy s perzistenciou a všadeprítomnosťou hmyzu zautomatizujú procesy, ktoré si predtým vyžadovali manipuláciu a myslenie ľudí. Teraz môžu spravovať základné procesy monitorovania, merania, počítania alebo dokonca videnia. Naše auto nám môže povedať, aby sme spomalili. Naše televízie môžu navrhovať filmy, ktoré je potrebné sledovať. Obchod s potravinami môže na večeru odporučiť zdravú kombináciu mäsa a zeleniny. Siri vám pripomína, že máte výročie.

"Hlavné negatívne zmeny spočívajú v jednoduchej, ale teraz dosť ťažkej otázke: Ako môžeme vidieť a úplne porozumieť dôsledkom algoritmov naprogramovaných do každodenných činností a rozhodnutí?" Problém je v tom: Čia je to vlastne inteligencia? … Naše systémy nemajú a musíme vstavať to, čo David Gelernter nazýval „vrcholový pohľad“, schopnosť nielen vytvárať technologické riešenia, ale aj vidieť a skúmať ich dôsledky predtým, ako na nich postavíme obchodné modely, spoločnosti a trhy. silné stránky, a najmä ich obmedzenia. “

Chudakov dodal, že je to obzvlášť nevyhnutné, pretože v nasledujúcom desaťročí a ďalej: „Rozšírením zberu a analýzy údajov a výslednej aplikácie týchto informácií sa k procesom a objektom, ktoré predtým nemali, pridáva vrstva inteligencie alebo manipulácie s myslením. vrstva. Možnosti predpovede nás teda nasledujú ako domáce zviera. Výsledok: Keďže sa informačné nástroje a prediktívna dynamika čoraz viac osvojujú, náš život bude stále viac ovplyvňovaný ich inherentnými závermi a príbehmi, ktoré prinášajú. “

"Celkový vplyv všadeprítomných algoritmov je v súčasnosti nevyčísliteľný, pretože prítomnosť algoritmov v každodenných procesoch a transakciách je teraz taká veľká a je väčšinou skrytá pred zrakom verejnosti." Všetky naše systémy rozšíreného myslenia (algoritmy poháňajú softvér a konektivitu, ktoré vytvárajú systémy rozšíreného myslenia) vyžadujú viac myslenia - nie menej - a globálnejšiu perspektívu, ako sme predtým dokázali. Rozširujúci sa zber a analýza údajov a z nich vyplývajúca aplikácia týchto informácií môžu liečiť choroby, znižovať chudobu, prinášať včasné riešenia ľuďom a miestam, kde je to potrebné, a odstraňovať tisícročia predsudkov, nepodložených záverov, neľudskej praxe a ignorancie všetkých. druhy. Naše algoritmy teraz redefinujú, čo si myslíme, ako si myslíme a čo vieme. Musíme ich požiadať, aby sa zamysleli nad svojim myslením - aby hľadali nástrahy a inherentné predpojatosti skôr, ako sa dajú zapečať a ťažšie odstrániť.

"Aby sme vytvorili dohľad, ktorý by hodnotil vplyv algoritmov, musíme ich najskôr vidieť a porozumieť im v kontexte, pre ktorý boli vyvinuté." To je samo osebe vysoká objednávka, ktorá vyžaduje, aby nestranní odborníci ustupovali procesom vývoja technológie a našli modely a vzorce, z ktorých algoritmy pochádzajú. Potom, čo majú odborníci k dispozícii všetko to učenie, musia triezvo posúdiť prínosy a nedostatky alebo riziká, ktoré algoritmy vytvárajú.Kto je pripravený to urobiť? Kto má čas, rozpočet a zdroje na vyšetrenie a odporučenie užitočných postupov? Toto je popis práce 21. storočia-a medzera na trhu-pri hľadaní skutočných ľudí a spoločností. Aby boli algoritmy transparentnejšie, obežníky o výrobkoch a informáciách o výrobkoch môžu obsahovať prehľad algoritmických predpokladov, podobných nutričnému postrannému panelu, ktorý sa teraz nachádza v mnohých balených potravinárskych výrobkoch, ktorý by používateľov informoval o tom, ako algoritmy poháňajú inteligenciu v danom produkte, a o primeranom prehľad implikácií obsiahnutých v týchto predpokladoch. “

Téma 2: Dobré veci sú pred nami

Niekoľko respondentov uviedlo mnoho spôsobov, ktorými algoritmy pomôžu porozumieť obrovskému množstvu údajov, pričom poznamenali, že to prinesie prelom vo vede, nové vymoženosti a ľudské kapacity v každodennom živote a stále lepšiu schopnosť prepojiť ľudí s informácie, ktoré im pomôžu. Vykonávajú zdanlivo zázračné úlohy, ktoré ľudia nedokážu, a budú naďalej výrazne rozširovať ľudskú inteligenciu a pomáhať pri dosahovaní veľkých vecí. Reprezentatívnym zástancom tohto názoru je Stephen Downes, vedecký pracovník Národnej rady pre výskum Kanady, ktorý ako pozitívne zmeny uviedol tieto:

"Niekoľko príkladov:
Banky. Banky dnes poskytujú pôžičky na základe veľmi neúplných údajov. Je pravda, že mnoho ľudí, ktorí dnes majú nárok na pôžičku, by ich v budúcnosti nedostali. Mnoho ľudí-a pravdepodobne oveľa viac ľudí-však bude môcť v budúcnosti získať pôžičky, pretože banky sa pri posudzovaní vhodnosti vyhýbajú používaniu takých faktorov, ako sú rasa, sociálno-ekonomické pozadie, PSČ a podobne. Navyše, s väčším počtom údajov (a s interaktívnejším vzťahom medzi bankou a klientom) môžu banky znížiť svoje riziko, a tak poskytnúť viac pôžičiek a súčasne poskytovať celý rad služieb individuálne zameraných na skutočne pomoc finančným stavom osoby.

"Poskytovatelia zdravotnej starostlivosti. Zdravotná starostlivosť je významným a rastúcim nákladom nie preto, že by ľudia boli stále menej zdraví (v skutočnosti je celospoločenský opak, opak je pravdou), ale kvôli značnej réžii potrebnej na podporu stále komplexnejších systémov vrátane predpisov, poistenia, zariadení a ďalších. Nové technológie umožnia poskytovateľom zdravotnej starostlivosti presunúť značnú časť tejto záťaže na jednotlivca, ktorý bude (s pomocou systémov osobnej podpory) lepšie riadiť svoje zdravie, koordinovať a riadiť svoju vlastnú starostlivosť a vytvárať menšiu záťaž pre systém . Keďže celkové náklady na zdravotnú starostlivosť klesajú, je stále viac uskutočniteľné poskytovať zdravotné poistenie pre celú populáciu s jediným platiteľom, ktoré pozná prospešné výsledky a účinnosť v oblasti zdravia.

"Vlády.". Významná časť vlády je založená na regulácii a monitorovaní, ktoré už nebudú potrebné pri zavádzaní automatizovaných výrobných a dopravných systémov spolu so senzorickými sieťami. To zahŕňa mnoho každodenných (a často nepríjemných) interakcií, ktoré dnes s vládou máme, od dopravných priestupkov, prejavov občianskej nespokojnosti, nespravodlivého zaobchádzania v obchodných a právnych procesoch a podobne. Jednoduchý príklad: Jedným z najtrvalejších politických problémov v USA je prekročenie politických hraníc v prospech súčasných úradujúcich. Volebné divízie vytvorené algoritmom do značnej miery eliminujú gerrymandering (a keď sú otvorené a diskutabilné, môžu byť upravené tak, aby sa zlepšil tento výsledok). “

Ukážka ďalších odpovedí od anonymných respondentov:

Účinnosť algoritmov povedie k väčšej kreativite a sebavyjadreniu.

  • "Algoritmy získavajú znalosti automatizovaným spôsobom oveľa rýchlejšie, ako je tradične možné."
  • "Algoritmy môžu skrachovať v databázach dostatočne rýchlo, aby zmiernili byrokraciu a byrokraciu, ktoré v súčasnosti spomaľujú pokrok."
  • "Uvidíme menšie znečistenie, lepšie zdravie ľudí, menej ekonomického odpadu."
  • "Algoritmy majú potenciál vyrovnať prístup k informáciám."
  • "Účinnosť algoritmov povedie k väčšej kreativite a sebavyjadreniu."
  • "Algoritmy môžu znížiť problémy s dopravou, môžu identifikovať preťaženie a alternatívne časy a cesty."
  • "Samoriadiace autá by mohli dramaticky znížiť počet nehôd, ktoré máme za rok, a tiež zlepšiť kvalitu života väčšiny ľudí."
  • „Lepšie zacielené poskytovanie správ, služieb a reklamy.“
  • "Sociálna veda založená na dôkazoch pomocou algoritmov na zber údajov zo sociálnych médií a kliknutí."
  • "Vylepšená a proaktívnejšia policajná práca so zameraním na oblasti, v ktorých je možné predchádzať kriminalite."
  • "Menej nerozvinutých oblastí a viac medzinárodných obchodných výmen."
  • "Algoritmy zmierňujú trenie v rozhodovaní, nákupe, doprave a vo veľkom množstve ďalších spôsobov správania."
  • "Roboti budú plniť príkazy na nákup vašich akcií." Digitálni agenti nájdu materiály, ktoré potrebujete. “
  • "Všetky chyby je možné opraviť." To bude znamenať, že algoritmy budú s túžbou ľudstva účinnejšie iba s postupom času. “

Témy objasňujúce obavy a výzvy

Účastníci tejto štúdie sa vo veľkej miere zhodli na tom, že množstvo pozitív zrýchľujúcej sa závislosti od kódu bude pokračovať v šírení algoritmov, ale ako pri všetkých veľkých technologických revolúciách, aj tento trend má temnú stránku. Väčšina respondentov poukázala na obavy, pričom väčšina z nich v záverečných piatich zastrešujúcich témach tejto správy má všetky podtémy.

Téma 3: Ľudskosť a ľudský úsudok sa strácajú, keď sa údaje a prediktívne modelovanie stanú prvoradými

Pokroky v algoritmoch umožňujú technologickým spoločnostiam a vládam zhromažďovať, ukladať, triediť a analyzovať rozsiahle súbory údajov. Odborníci na túto agitáciu poznamenali, že tieto algoritmy sú navrhnuté predovšetkým na optimalizáciu účinnosti a ziskovosti bez toho, aby sa veľa premýšľalo o možných spoločenských dopadoch modelovania a analýzy údajov. Títo respondenti tvrdili, že ľudia sú považovaní za „vstup“ do procesu a nie sú vnímaní ako skutočné, mysliace, cítiace a meniace sa bytosti. Hovorí sa, že to vytvára chybnú spoločnosť riadenú logikou a že ako sa proces vyvíja-to znamená, že keď algoritmy začnú písať algoritmy-ľudia môžu vypadnúť zo slučky a nechať „roboty rozhodnúť“. Predstaviteľ tohto pohľadu:

Bart Knijnenburg, odborný asistent v oblasti výpočtovej techniky zameranej na človeka na Clemson University, odpovedal: „Algoritmy budú ťažiť z pohodlia a zisku, čím diskriminujú určité populácie, ale tiež narúšajú skúsenosti všetkých ostatných. Cieľom algoritmov je zapadnúť niektorí našich preferencií, ale nie nevyhnutne všetky z nich: V podstate predstavujú karikatúru nášho vkusu a preferencií. Mám najväčší strach z toho, pokiaľ nevyladíme naše algoritmy samoaktualizácia„Bude jednoducho príliš vhodné, aby sa ľudia riadili radami algoritmov (alebo aby bolo príliš ťažké ich prekročiť), premieňali tieto algoritmy na sebapĺňajúce sa proroctvá a používatelia na zombie, ktorí konzumujú výlučne ľahko konzumovateľné položky. . ”

Anonymný futurista povedal: „To sa deje od začiatku priemyselnej revolúcie. Zakaždým, keď navrhnete ľudský systém optimalizovaný z hľadiska účinnosti alebo ziskovosti, dehumanizujete pracovnú silu. Táto dehumanizácia sa teraz rozšírila do nášho zdravotníctva a sociálnych služieb. Keď odstránite ľudstvo zo systému, v ktorom sú zahrnutí ľudia, stanú sa obeťami. "

Ďalší anonymný respondent napísal: „Jednoducho nemôžeme zachytiť každý dátový prvok, ktorý predstavuje rozsiahlosť osoby a jej potreby, priania, nádeje, túžby. Kto zbiera aké dátové body? Vedia vôbec ľudské bytosti, ktoré dátové body odrážajú, alebo len súhlasili so zmluvnými podmienkami, pretože nemali inú možnosť? Kto zarába peniaze na údajoch? Ako má niekto vedieť, ako sa jeho údaje masírujú a na aké účely odôvodňuje, čo sa končí? Neexistuje žiadna transparentnosť a dohľad je fraška. To všetko je skryté pred zrakom. Budem vždy presvedčený, že údaje budú použité na obohatenie a/alebo ochranu ostatných, a nie jednotlivca. Je to základná povaha ekonomického systému, v ktorom žijeme. “

Ukážka úryvkov k tejto téme od ostatných respondentov (podrobnosti si prečítajte v úplnejšej verzii v úplnej správe):

Algoritmy sú schopné formovať rozhodnutia jednotlivcov bez toho, aby o tom vedeli, čo dáva tým, ktorí majú nad algoritmami kontrolu, nespravodlivé postavenie moci.

  • "Potenciál dobra je obrovský, ale potenciál zneužitia a zneužívania - úmyselný a neúmyselný - môže byť väčší."
  • „Spoločnosti sa snažia maximalizovať zisk, nie maximalizovať spoločenské dobro. Horšie je, že hľadanie zisku prebaľujú ako spoločenské dobro. Blížime sa k vrcholu vlny, ktorej základnou stránkou je nová etika manipulácie, marketingu a takmer úplný nedostatok súkromia. “
  • "To, čo už dnes vidíme, je, že v praxi veci ako" diferenciálne ceny "nepomáhajú spotrebiteľovi, ale pomáhajú spoločnosti, ktorá predáva veci atď."
  • "Jednotlivé ľudské bytosti budú pasené ako dobytok s predvídateľne deštruktívnymi výsledkami v oblasti právneho štátu, sociálnej spravodlivosti a ekonomiky."
  • "Existuje iba stimul na ďalšie zahmlievanie prítomnosti a operácií algoritmického tvarovania komunikačných procesov."
  • "Algoritmy ... zosilňujú negatívne vplyvy dátových medzier a vylúčení."
  • "Algoritmy majú schopnosť formovať rozhodnutia jednotlivcov bez toho, aby o tom vedeli, čo dáva tým, ktorí majú nad algoritmami kontrolu, nespravodlivé postavenie moci."
  • "Skutočnosť, že internet možno pomocou algoritmov použiť takmer na čítanie našich myslí, [znamená], že tí, ktorí majú prístup k algoritmom a ich databázam, majú obrovskú príležitosť manipulovať s veľkými skupinami obyvateľstva."
  • "Nedostatok zodpovednosti a úplná neprehľadnosť sú desivé."
  • "Podľa utilitaristických metrík nemá algoritmické rozhodovanie žiadnu negatívnu stránku toho, že bude mať za následok večné nespravodlivosti voči veľmi menšinovým triedam, ktoré vytvára, budú ignorované." Spoločné dobro sa stalo zdiskreditovaným, zastaraným pozostatkom minulosti. “
  • "V ekonomike, v ktorej stále viac dominuje malá, veľmi privilegovaná a izolovaná časť populácie, bude do značnej miery reprodukovať nerovnosť v ich prospech." Kritika bude zľahčovaná a odmietaná kvôli dymu digitálnej „logiky“ v tomto procese.
  • „Algoritmy sú nové zlato a je ťažké vysvetliť, prečo je priemerné„ dobro “v rozpore s individuálnym„ dobrým “.
  • „Negatívny individuálny vplyv budeme interpretovať ako nevyhnutné vedľajšie poškodenie„ pokroku “.
  • "To zabije miestnu inteligenciu, miestne zručnosti, menšinové jazyky, miestne podnikanie, pretože väčšina dostupných zdrojov bude vyčerpaná globálnymi konkurentmi."
  • "Algoritmy v minulosti vytvoril programátor." V budúcnosti ich pravdepodobne vyvinú inteligentné/učebné stroje…. Ľudia stratia vo svete agentúru. “
  • "Bude to len horšie, pretože neexistuje žiadna" kríza ", na ktorú by bolo možné reagovať, a teda nielen motivácia zmeniť, ale aj všetky dôvody, prečo v tom pokračovať - ​​najmä vďaka silným záujmom. Smerujeme k nočnej more. “
  • „Web 2.0 poskytuje občanom, ktorí sa potrebujú odviezť domov, viac pohodlia, ale zároveň - a je naivné si myslieť, že je to náhoda - je to aj speňažená, korporativizovaná, zbavujúca moci a kanibalizujúca predzvesť Koncových časov. (Preháňam kvôli účinku. Nie však o veľa.) “

Téma 4: V algoritmicky organizovaných systémoch existujú odchýlky

Tu sa spájajú dva pramene myslenia. Jedným z nich je, že tvorcovia algoritmov (tvorcovia kódu), aj keď sa snažia o inkluzívnosť, objektivitu a neutralitu, stavajú do svojich výtvorov svoje vlastné perspektívy a hodnoty. Druhým je, že súbory údajov, na ktoré sa algoritmy aplikujú, majú svoje vlastné limity a nedostatky. Dokonca aj súbory údajov s miliardami informácií nezachytávajú úplnosť života ľudí a rozmanitosť ich skúseností. Samotné súbory údajov sú navyše nedokonalé, pretože neobsahujú vstupy od každého alebo od reprezentatívnej vzorky každého. Tieto dve témy sú pokročilé v týchto odpovediach:

Justin Reich, výkonný riaditeľ laboratória MIT Teaching Systems Lab, poznamenal: „Algoritmy budú primárne navrhnuté bielymi a ázijskými mužmi - s údajmi vybranými tými istými privilegovanými aktérmi - v prospech spotrebiteľov, ako sú oni. Väčšina ľudí na privilegovaných pozíciách považuje tieto nové nástroje za pohodlné, bezpečné a užitočné. Škody súvisiace s novou technológiou budú najviac zažívať tí, ktorí sú už v spoločnosti znevýhodnení, kde reklamné algoritmy ponúkajú reklamy na kauciu, ktoré predpokladajú, že čitatelia sú zločinci, žiadosti o pôžičku, ktoré penalizujú ľudí za proxy tak korelované s rasou, že efektívne penalizujú ľudí na základe rasy a podobné problémy. "

Dudley Irish, softvérový inžinier, poznamenal: „Všetci, zopakujem to, všetky tréningových údajov obsahuje skreslenia. Väčšina z nich súvisí buď s rasou, alebo s triedou, a spravodlivé pokropenie jednoduchým potrestaním ľudí za to, že nepoužívajú štandardný anglický dialekt. Aby som parafrázoval Immanuela Kanta, z krivého dreva týchto súborov údajov nebola nikdy vytvorená žiadna priama vec. ”

Ukážka úryvkov z citátov spojených s touto témou od ostatných respondentov (podrobnosti si prečítajte v úplnejšej verzii v úplnej správe):

Jednou z najväčších výziev budúcej éry bude vyváženie ochrany duševného vlastníctva v algoritmoch s ochranou subjektov týchto algoritmov pred nespravodlivou diskrimináciou a sociálnym inžinierstvom.

  • "Algoritmy sú podľa definície neosobné a sú založené na hrubých dátach a zovšeobecnených predpokladoch." Algoritmy písania ľudí, dokonca aj tie, ktoré sú založené na dátach, sú nereprezentatívnou podskupinou populácie. “
  • "Ak začínate na mieste nerovnosti a pomocou algoritmov rozhodujete o tom, čo je pravdepodobným výsledkom pre osobu/systém, nerovnosti nevyhnutne posilníte."
  • "Všetci budeme týraní ako homogénnejší, ako sme."
  • "Výsledkom by mohla byť inštitucionalizácia zaujatých a škodlivých rozhodnutí s ospravedlnením:" Počítač sa rozhodol, takže ho musíme prijať. "
  • "Algoritmy budú odrážať skreslené myslenie ľudí." Odpad dnu odpad von. Ovplyvní to mnoho dimenzií života, ale len málokomu sa pomôže. Dohľad bude veľmi ťažký alebo nemožný. “
  • "Algoritmy oceňujú efektívnosť nad správnosťou alebo férovosťou a v priebehu času bude ich vývoj pokračovať v rovnakých prioritách, aké ich pôvodne formulovali."
  • "Jednou z najväčších výziev budúcej éry bude vyváženie ochrany duševného vlastníctva v algoritmoch s ochranou subjektov týchto algoritmov pred nespravodlivou diskrimináciou a sociálnym inžinierstvom."
  • "Algoritmy majú byť spravodlivé, racionálne a nezaujaté, ale iba presadzovať predsudky bez akéhokoľvek postihu."
  • "Pokiaľ nie sú algoritmy v zásade open source a ako také môžu byť upravované spätnou väzbou od používateľov nejakým férovým spôsobom, sila, ktorú si pravdepodobne výrobcovia algoritmov (korporácie a vlády) musia zvoliť sami, či už z hľadiska internetových služieb alebo adhézie. zmluvy alebo politické zaujatosti, budú do algoritmov vkladať vedomú aj nevedomú predpojatosť. “

Téma 5: Algoritmické kategorizácie prehlbujú rozdiely

V odpovediach mnohých respondentov boli evidentné dve prepojené predstavy o sociálnom rozdelení. Najprv predpovedali, že budúcnosť podporovaná algoritmami rozšíri priepasť medzi digitálne zdatnými (predovšetkým najbohatšími, ktorí sú najžiadanejšou demografickou skupinou v novom informačnom ekosystéme) a tými, ktorí nie sú ani zďaleka tak prepojení alebo schopní sa zúčastniť. . Za druhé, uviedli, že sociálne a politické rozdiely budú podporované algoritmami, pretože kategorizácie a klasifikácie riadené algoritmami nasmerujú ľudí do komôr ozveny opakovaného a posilneného mediálneho a politického obsahu. Dve názorné odpovede:

Ryan Hayes, majiteľ portálu Fit to Tweet, uviedol: „Pred dvadsiatimi rokmi sme hovorili o„ digitálnej priepasti “medzi ľuďmi, ktorí majú prístup k počítaču doma, v porovnaní s tými, ktorí ho nemajú, alebo tými, ktorí majú prístup na internet. kto nie .... O desať rokov sa však život niekoho, koho schopnosti a vnímanie sveta rozšíria senzory a spracujú s výkonnou AI a spojí s veľkým množstvom dát, bude výrazne líšiť od života tých, ktorí k nemu nemajú prístup. k týmto nástrojom alebo znalosti o tom, ako ich používať. A táto priepasť sa bude sama opakovať, pričom tí, ktorí majú menej schopností, budú v mnohých ohľadoch zraniteľnejší voči tým, ktorí majú viac. “

Adam Gismondi, hosťujúci odborník na Boston College, napísal: „Obávam sa, že keďže sú používatelia umiestnení do karantény v rôznych ideologických oblastiach, ľudská schopnosť empatie môže trpieť. Vyrovnanie sa s protikladnými názormi je pre nás výzvou a ak sa dokážeme (aktívne alebo pasívne) vyhýbať iným s rôznymi perspektívami, bude to mať negatívny vplyv na našu spoločnosť. Bude zaujímavé zistiť, aké funkcie pridajú naše hlavné spoločnosti v oblasti sociálnych médií v nasledujúcich rokoch, pretože budú mať obrovskú moc nad štruktúrou toku informácií. “

Ukážka úryvkov z citátov spojených s touto témou od ostatných respondentov (podrobnosti si prečítajte v úplnejšej verzii v úplnej správe):

Celkový účinok bude u niektorých jedincov pozitívny. Bude to negatívne pre chudobných a nevzdelaných. V dôsledku toho bude digitálna priepasť a rozdiely v bohatstve rásť. Bude to čistý negatív pre spoločnosť.

  • "Ak súčasný ekonomický poriadok zostane na svojom mieste, potom nevidím nárast algoritmov založených na dátach, ktoré poskytujú veľký úžitok komukoľvek mimo najbohatšieho v spoločnosti."
  • "Sociálne nerovnosti sa pravdepodobne napravia."
  • "Hlavným rizikom je, že menej pravidelní používatelia, najmä tí, ktorí sa združujú na jednom alebo dvoch serveroch alebo platformách, nevyvinú toto navigačné a výberové zariadenie a budú v nevýhode."
  • "Algoritmy robia diskrimináciu efektívnejšou a dezinfikovanou." Pozitívnym vplyvom budú zvýšené zisky pre organizácie schopné vyhnúť sa riziku a nákladom. Negatívne vplyvy budú mať všetky, ktoré algoritmy považujú za rizikové alebo menej výnosné. “
  • „Spoločnosť bude stratifikovaná podľa toho, s ktorým poskytovateľom dôvery/identity si môžete dovoliť/s akým sa kvalifikovať.Úroveň súkromia a ochrany sa bude líšiť. Lois McMaster [Bujold] Jacksonovo celé zrazu sa zdá byť trochu mrazivejšie realistický. “
  • "Máme radikálne odlišné súbory hodnôt, politické a iné, a algo sú vždy zakorenené v hodnotových systémoch ich tvorcov." Scenár je teda jedným z obrovských otvorení príležitostí-ekonomických aj iných-pod kontrolou buď Zuckerberga alebo sivovlasých hybateľov globálneho kapitálu alebo ... “
  • "Celkový efekt bude pre niektorých jednotlivcov pozitívny." Bude to negatívne pre chudobných a nevzdelaných. V dôsledku toho bude digitálna priepasť a rozdiely v bohatstve rásť. Bude to čistý negatív pre spoločnosť. “
  • „Rasové vylúčenie pri zacielení na spotrebiteľa. Rodové vylúčenie v zacielení na spotrebiteľa. Vylúčenie triedy v zacielení na spotrebiteľa …. Nacionalistické vylúčenie pri zacielení na spotrebiteľa. “
  • "Ak algoritmy usmerňujúce tok správ potláčajú protichodné informácie - informácie, ktoré spochybňujú predpoklady a hodnoty jednotlivcov - môžeme v rýchlo sa odlišujúcich subpopuláciách vidieť rastúce extrémy separácie vo svetonázoroch."
  • "Možno smerujeme k informačným tokom s najnižším spoločným menovateľom."
  • "Účinnosť a príjemnosť a serotonín, ktoré pochádzajú z predpisového poriadku, sú veľmi nadhodnotené." Je dôležité udržať v našich životoch chaos. “

Niektorí účastníci tejto agitácie vyjadrili znepokojenie nad zmenou v informačných diétach verejnosti, „atomizáciou médií“, prehnaným zdôrazňovaním extrémnych, škaredých, podivných správ a uprednostňovaním „pravdivosti“ pred inými- faktický materiál, ktorý môže byť životne dôležitý pre pochopenie toho, ako byť zodpovedným občanom sveta.

Téma 6: Nezamestnanosť bude rásť

Šírenie umelej inteligencie (AI) má potenciál spôsobiť veľkú nezamestnanosť a všetky dôsledky z toho.

Anonymný generálny riaditeľ povedal: „Ak je možné úlohu efektívne reprezentovať algoritmom, potom ju môže ľahko vykonať stroj. Negatívny trend, ktorý tu vidím, je, že - s nárastom algoritmu - budú ľudia pri mnohých úlohách/úlohách nahradzovaní strojmi/počítačmi. Aký bude potom osud Človeka? “

Ukážka úryvkov z citátov spojených s touto témou od ostatných respondentov (podrobnosti si prečítajte v úplnejšej verzii v úplnej správe):

Predpokladám, že algoritmy nahradia takmer všetkých pracovníkov bez skutočných možností pre nahradených ľudí.

  • "AI a roboty pravdepodobne narušia pracovnú silu k potenciálnej 100% nezamestnanosti ľudí." Budú múdrejší, efektívnejší a produktívnejší a budú mať nižšie náklady, takže dáva zmysel, aby sa korporácie a firmy uberali týmto smerom. “
  • "Masívne zvýšenie produktivity v dôsledku automatizácie zvýši rozdiely medzi pracovníkmi a vlastníkmi kapitálu."
  • „Moderná západná spoločnosť je postavená na sociálnom modeli, v ktorom sa kapitál vymieňa za prácu, aby sa zabezpečil hospodársky rast. Ak práca už nebude súčasťou tejto výmeny, dôsledky budú obrovské. “
  • "Žiadna práca, rastúca populácia a menšia potreba, aby priemerný človek fungoval autonómne." Ktorá časť z toho je teplá a fuzzy? “
  • "Predpokladám, že algoritmy nahradia takmer všetkých pracovníkov bez skutočných možností pre nahradených ľudí."
  • "Z dlhodobého hľadiska by mohlo byť pre jednotlivcov dobré, keby sa zbavili opakujúcich sa úloh s nízkou hodnotou a motivovali ich k vykonávaniu tých, ktoré vytvárajú vyššiu hodnotu."
  • "Dúfajme, že krajiny budú reagovať zavedením foriem minimálnej garantovanej životnej mzdy a bezplatného vzdelávania po K-12, inak tí najsvetlejší použijú online zdroje na rýchle prekonanie priemerných jednotlivcov a najbohatší využijú svoju ekonomickú silu na získanie ďalších politických výhod."

Téma 7: Rastie potreba algoritmickej gramotnosti, transparentnosti a dohľadu

Respondenti tohto zhromaždenia ponúkli množstvo myšlienok o tom, ako by jednotlivci a širšia kultúra mohli reagovať na algoritmizáciu života. Tvrdili, že verejné vzdelávanie má vniesť gramotnosť o tom, ako algoritmy fungujú v širokej verejnosti. Tiež poznamenali, že tí, ktorí vytvárajú a vyvíjajú algoritmy, nie sú zodpovední voči spoločnosti a tvrdili, že by mala existovať nejaká metóda, ktorou sú. Zástupcovia:

Susan Etlingerová, priemyselný analytik spoločnosti Altimeter Group, povedal: „Rovnako ako spôsob, akým si stále viac želáme poznať miesto a za akých podmienok sa vyrába naše jedlo a oblečenie, mali by sme sa pýtať, ako sa robia aj naše údaje a rozhodnutia. Aký je dodávateľský reťazec týchto informácií? Existuje jasné vedenie a audit trail? Boli predpoklady založené na čiastočných informáciách, chybných zdrojoch alebo irelevantných referenčných hodnotách? Trénovali sme dostatočne svoje údaje? Zapojili sa správni zainteresovaní aktéri a poučili sme sa z vlastných chýb? Výsledkom toho všetkého je, že celý náš spôsob riadenia organizácií bude v budúcom desaťročí vylepšený. Sila vytvárať a meniť realitu bude spočívať v technológii, ktorej len málokto skutočne rozumie. Aby sme zaistili úspešné používanie algoritmov, či už pre finančný alebo ľudský prospech, alebo pre oba, musíme mať k dispozícii štruktúry riadenia a zodpovednosti. Ľahšie sa to hovorí, ako sa to robí, ale ak niekedy nastal čas spojiť najchytrejšie mysle v priemysle s najchytřejšími mysliami na akademickej pôde, aby vyriešili tento problém, teraz je ten pravý čas. “

Chris Kutarna, autor Vek objavu a kolega z Oxfordskej Martinskej školy napísali: „Algoritmy sú explicitnou formou heuristiky, spôsobom, ako rutinizovať určité voľby a rozhodnutia, aby sme neustále nepili z požiarneho hydrantu zmyslových vstupov. Táto stratégia zvládania sa vždy vyvíjala spoločne s ľudstvom a so zložitosťou našich sociálnych systémov a dátových prostredí. Uvedomenie si našich zjednodušujúcich predpokladov a heuristiky je dôležité miesto, kde dozrieva náš intelekt a vplyv. Čo je teraz iné, je narastajúca schopnosť explicitne programovať tieto heuristiky, vykonávať zjednodušovanie mimo ľudskej mysle a v rámci strojov a platforiem, ktoré dodávajú údaje miliardám individuálnych životov. Trvá nejaký čas, kým vyvinieme múdrosť a etiku, aby sme túto silu pochopili a nasmerovali. Medzitým úprimne nevieme, ako dobre alebo bezpečne sa používa. Prvým a najdôležitejším krokom je rozvoj lepšieho sociálneho povedomia o tom, kto, ako a kde sa uplatňuje. “

Ukážka úryvkov z citátov spojených s touto témou od ostatných respondentov (podrobnosti si prečítajte v úplnejšej verzii v úplnej správe):

Potrebujeme nejaký druh dúhovej koalície, aby sme prišli s pravidlami, ktoré by zabránili vrodeným predsudkom a skupinovému mysleniu ovplyvňovať výsledky.

  • „Kto stráži strážcov? A najmä, ktorí „opatrovníci“ čo robia, komu s využitím rozsiahleho súboru informácií? “
  • "V kapitalizme neexistujú stimuly na boj proti filtračným bublinám, profilovaniu a negatívnym vplyvom a vládna/medzinárodná správa je prakticky bezmocná."
  • "Mechanizmy dohľadu môžu zahŕňať prísnejšie prístupové protokoly o odhlasovaní etických kódexov pre digitálnu správu a menovaných správcov informácií o online sledovaní funkcií opätovného použitia informácií jednotlivcom, ktorým sa stanovujú časové harmonogramy prístupu bez predaja tretej strane bez súhlasu."
  • "Pokiaľ nebude zvýšené úsilie o to, aby sa skutočná informačná gramotnosť stala súčasťou základného vzdelávania, bude existovať trieda ľudí, ktorí môžu používať algoritmy, a trieda používaná algoritmami."
  • "Spotrebitelia musia byť informovaní, vzdelaní a skutočne aktivistickí v orientácii na niečo jemné. O tom je počítačová gramotnosť v 21. storočí. “
  • „Nájdenie rámca, ktorý umožní transparentnosť a hodnotenie výsledkov, bude kľúčové. Tiež je potrebné dobre porozumieť algoritmickému „hodnotovému reťazcu“ a tým, že údaje sú kľúčovým faktorom a sú rovnako cenné ako algoritmus, ktorý trénuje.
  • "Algoritmická zodpovednosť je projekt veľkého stanu, ktorý vyžaduje schopnosti teoretikov a praktikov, právnikov, sociálnych vedcov, novinárov a ďalších." Je to naliehavá, globálna príčina s oddanými a mobilizovanými odborníkmi, ktorí hľadajú podporu. “
  • "Nakoniec bude uznané, že zákon o zodpovednosti za softvér potrebuje reformu, pretože práve teraz môžu programátori doslova uniknúť vražde."
  • "Zákon neúmyselných následkov naznačuje, že zvyšujúce sa vrstvy spoločenskej a technickej zložitosti zakódované v algoritmoch zaisťujú, že dôjde k nepredvídaným katastrofickým udalostiam - pravdepodobne nie k tým, s ktorými sme si robili starosti."
  • "Nakoniec vyvinieme mechanizmy, ktoré spotrebiteľom poskytnú väčšiu kontrolu, ktorá by mala viesť k lepšiemu porozumeniu a dôvere .... Zrušenie bude nevyhnutné, ale nevyhnutné a z dlhodobého hľadiska povedie k rovnováhe, ktorá bude prospešnejšia pre nás všetkých. “
  • "Potrebujeme nejaký druh dúhovej koalície, aby sme prišli s pravidlami, ktoré by zabránili vrodeným predsudkom a skupinovému mysleniu ovplyvňovať výsledky."
  • "Algoritmy sú príliš komplikované na to, aby boli niekedy transparentné alebo úplne bezpečné." Tieto faktory budú naďalej ovplyvňovať smerovanie našej kultúry. “
  • "Očakávam, že budú vyvinuté meta-algoritmy, ktoré sa pokúsia čeliť negatívam algoritmov."

Anonymní respondenti zdieľali tieto jednorazové správy k téme:

  • "Zlaté pravidlo: Ten, kto vlastní zlato, tvorí pravidlá."
  • "Zlí chlapci sa zdajú byť oveľa lepší ako dobrí."
  • "Odpor je zbytočný."
  • "Algoritmy sú definované ľuďmi, ktorí vám chcú niečo predať (tovar, služby, ideológie) a prekrútia výsledky, aby tak urobili."
  • "Algoritmy sú určite užitočné, ale pravdepodobne nedostatočné, pokiaľ nie sú kombinované s ľudskými znalosťami a politickou vôľou."

Nakoniec táto predpoveď od anonymného účastníka, ktorý považuje pravdepodobný koncový bod za jeden z dvoch extrémov:

"Celkový vplyv bude utópia alebo koniec ľudskej rasy nebude predvídateľný." Mám podozrenie, že je to utópia, pretože sme v minulosti prežili najmenej jednu existenčnú (jadrovú) krízu a že naše výsledky v oblasti mieru, aj keď pomalé, sú pevné. “

Uvažovanie kľúčových odborníkov o budúcich dopadoch algoritmov

Nasleduje krátka zbierka pripomienok niekoľkých z mnohých špičkových analytikov, ktorí sa zúčastnili tejto kampane:

„Vedenie ľudí k užitočným informáciám“

Vinton Cerf“Člen Internetovej siene slávy a viceprezident a hlavný internetový evanjelista v spoločnosti Google:„ Algoritmy sú väčšinou určené na to, aby nasmerovali ľudí k užitočným informáciám, a to považujem za čisté pozitívum. “

Dávajte si pozor na „neoverené, nesledované a nerafinované modely“

Cory Doctorow, spisovateľ, aktivista počítačových vied, rezident v MIT Media Lab a spolumajiteľ spoločnosti Boing Boing, odpovedal: „Možnosti v tejto otázke sú príliš obmedzené. Správna odpoveď je: „Ak budeme dôsledne používať modely strojového učenia, urobia veci lepšími, ak ich použijeme na papierovanie nad nespravodlivosťou s dyhou strojového empirizmu, bude to horšie.“ Amazon používa strojové učenie na optimalizáciu svojich predajných stratégií. Keď vykonajú zmenu, predpovedajú jej pravdepodobný výsledok predaja, potom použijú údaje o predaji z tejto predikcie na spresnenie modelu. Dodávatelia prediktívneho vyhodnocovania trestov do amerického väzenského systému používajú strojové učenie na optimalizáciu odporúčaní o odsúdení. Ich model tiež predpovedá pravdepodobné výsledky (pri recidíve), ale nesleduje sa, či ich model robí dobré predpovede, a žiadne spresnenie. To ich oslobodzuje od strašných predpovedí bez následkov. Táto charakteristika neoverených, nesledovaných a nerafinovaných modelov je prítomná na mnohých miestach: zoznamy teroristických modelov sledovania modelov zabíjania dronov moderné redlining/systémy Jim Crow, ktoré obmedzujú algoritmy prediktívnej policajnej polície atď. Ak nariadime alebo stanovíme normatívne limity pre postupy, ktoré to napravia povrchné správanie, potom môžeme použiť empirizmus na nápravu zaujatosti a zlepšiť spravodlivosť a nestrannosť firiem a štátu (a verejno -súkromných partnerstiev). Ak naopak prax pokračuje tak, ako je, končí sa akousi kafkovskou nočnou morou, kde robíme veci „pretože to hovorí počítač“ a nazývame ich spravodlivými „pretože to hovorí počítač“.

„Prevláda všeobecný trend k pozitívnym výsledkom“

Jonathan Grudin, hlavný výskumník spoločnosti Microsoft, povedal: „Konečne sa dostávame do stavu symbiózy alebo partnerstva s technológiou. Algoritmy nie sú pod kontrolou, ktorú ľudia vytvárajú a upravujú. Pozitívne efekty pre jednu osobu však môžu byť pre iného negatívne a sledovanie príčin a následkov môže byť náročné, takže budeme musieť neustále pracovať na porozumení a úprave rovnováhy. Nakoniec bude väčšina kľúčových rozhodnutí politická a som optimistický, že vzhľadom na obrovský potenciál, ktorý môže mať využitie technológie, bude prevažovať všeobecný trend k pozitívnym výsledkom. Menej sa obávam, že by prevládali zlí herci, než z neúmyselných a nepovšimnutých negatívnych dôsledkov, ktoré sa na nás vkradnú. “

„Systémy bez tváre sa viac zaujímajú o sledovanie a reklamu ako o skutočnú službu“

Doc Searls, novinár, rečník a riaditeľ projektu VRM v Berkmanovom centre Harvardskej univerzity, napísal: „Najväčším problémom dnešných algoritmov je čierny box niektorých z najväčších a najzáväznejších. Príkladom je ten, ktorý používa spoločnosť Dun & amp Bradstreet na určenie bonity. Metódy rozhodovania, ktoré robí, sú úplne nepriehľadné nielen pre tých, ktorých kredit sa posudzuje, ale aj pre väčšinu ľudí, ktorí používajú algoritmus. Iba programátori môžu s istotou vedieť, čo algoritmus robí, a dokonca ani im nemusí byť jasné, čo sa deje. V niektorých prípadoch neexistuje spôsob, ako presne povedať, prečo alebo ako sa dosiahne rozhodnutie algoritmom. A aj keď zodpovedné strany presne vedia, ako algoritmus funguje, nazvú ho obchodným tajomstvom a skryjú ho. Už existuje tlak na neprehľadnosť algoritmov a niekedy aj rozsiahle systémy za nimi. Mnoho zákonodarcov a regulačných orgánov tiež chce, aby boli napríklad rozsiahle serverové farmy Google a Facebook hlbšie známe a pochopené. Tieto veci majú veľkosť, rozsah a v niektorých ohľadoch význam jadrových elektrární a ropných rafinérií, napriek tomu však nemajú takmer žiadny regulačný dohľad. Toto sa zmení. Súčasne bude rásť aj veľkosť entít používajúcich algoritmy. Budú menšie a početnejšie, pretože väčšia zodpovednosť za jednotlivé životy sa bude vzďaľovať od systémov bez tváre, ktoré sa viac zaujímajú o sledovanie a reklamu než o skutočnú službu. “

Výzva na #AlgorithmicTransparency

Marc Rotenberg, výkonný riaditeľ Informačného centra pre elektronickú ochranu osobných údajov, poznamenal: „Hlavným problémom rozhodovania založeného na algoritmoch je nedostatočná zodpovednosť. Stroje sa stali doslova čiernymi skrinkami - dokonca ani vývojári a operátori úplne nechápu, ako sa produkujú výstupy. Problém ešte zhoršuje „digitálny veda“ (moja fráza) - neochvejná viera v spoľahlivosť veľkých dát. „Algoritmická transparentnosť“ by mala byť ustanovená ako základná požiadavka pre každé rozhodovanie na základe AI. Väčší problém je s nárastom výsledkov založených na algoritmoch, ktoré presahujú riziko chyby alebo diskriminácie-narastajúca neprehľadnosť rozhodovania a rastúci nedostatok ľudskej zodpovednosti. Musíme sa postaviť realite, že moc a autorita sa presúvajú z ľudí na stroje. Preto je #AlgorithmicTransparency jednou z veľkých výziev našej doby. “

Údaje „budú zneužité rôznymi spôsobmi“

Richard Stallman“Člen Internetovej siene slávy a prezident Free Software Foundation povedal:„ Na ľudí bude vyvíjaný tlak, aby odovzdali všetky osobné údaje, ktoré by algoritmy posúdili. Hromadené údaje budú zneužité rôznymi spôsobmi - spoločnosťami, ktoré ich zhromažďujú, nepoctivými zamestnancami, sušienkami, ktoré kradnú údaje z webových stránok spoločnosti, a štátom prostredníctvom listov národnej bezpečnosti. Počul som, že ľudia, ktorí odmietajú byť využívaní Facebookom, sú nejakým spôsobom diskriminovaní. Snáď čoskoro im bude odoprený napríklad vstup do USA. Aj keď to Spojené štáty v skutočnosti neurobia, ľudia sa budú obávať, že to urobia. Porovnajte to so skóre čínskej sociálnej poslušnosti pre používateľov internetu. “

Ľudia musia žiť s výsledkami algoritmov „napriek tomu, že sa obávajú rizík“

David Clark“Člen Internetovej siene slávy a vedúci výskumu na MIT odpovedal:„ Vidím, že pozitívne výsledky prevažujú nad negatívnymi, ale problém bude, že niektorí ľudia budú mať negatívne dôsledky, možno veľmi vážne, a spoločnosť sa bude musieť rozhodnúť, ako vysporiadať sa s týmito výsledkami. Tieto výsledky sa budú pravdepodobne líšiť v charaktere a v našej schopnosti pochopiť, prečo sa stali, a v dôsledku tejto reality budú niektorí ľudia vystrašení. Ale ako dnes vidíme, ľudia cítia, že musia používať internet, aby boli súčasťou spoločnosti. Aj keď sa obávajú následkov, ľudia akceptujú, že musia žiť s výsledkami týchto algoritmov, aj keď sa obávajú rizík. “

„KAŽDÁ oblasť života bude ovplyvnená. Každý. Single. Jeden. ‘

Baratunde Thurston, Člen riaditeľky MIT Media Lab, publicista Fast Company a bývalý digitálny riaditeľ The Onion, napísal: „Hlavné pozitívne zmeny: 1) Ospravedlnenie nevedomosti sa výrazne zníži, pretože informácie budú ešte prepojenejšie a úplnejšie. 2) Chyby vyplývajúce z chýb v ľudskom úsudku, znalostí alebo#8217 alebo reakčného času sa výrazne znížia. Nazvime to ’s ako ‘roboti jazdia lepšie ako ľudia ’. Dnešní vodiči budú kňučať, ale o 50 rokov nikto nebude chcieť šoférovať, keď bude môcť využiť tento čas na prežitie a zažiť v realite nerozoznateľné pohlcujúce virtuálne prostredie plné bandy robotov Beyoncé.

„3) Korupcia, ktorá dnes existuje v dôsledku ľudského podvodu, výrazne klesne - úplatky, štepy, nepotizmus. Ak sú algoritmy postavené dobre a robustne, príležitosť vložiť túto neefektivitu (napr. Najať nejakého idiota, pretože je vašim bratrancom) by mala ísť dole. 4) Vo všeobecnosti by sme mali dosiahnuť oveľa efektívnejšiu distribúciu zdrojov vrátane drahých (v dolároch alebo environmentálnych nákladoch) zdrojov, ako sú fosílne palivá. Algoritmický prehľad v zásade začne ovplyvňovať dizajn našich domovov, miest, dopravných sietí, úrovní výroby, spracovania odpadového hospodárstva a ďalších.Vo svete, kde má každá Američanka auto, ktoré nikdy nepoužíva, je veľa nadbytočnosti. Mali by sme byť oveľa energeticky efektívnejší, keď znížime nadbytočnosť procesov navrhnutých ľuďmi.

"Ale dôjde k negatívnym zmenám: 1) Zvýši sa rýchlosť interakcií a objem spracovaných informácií - všetko sa zrýchli. Žiadny z nárastov účinnosti, ktoré prináša technológia, nikdy neviedol k väčšiemu odpočinku, odpočinku alebo šťastiu. Jednoducho budeme viac nakupovať, pracovať, rozhodovať o viacerých veciach, pretože naša schopnosť vykonávať všetky tieto činnosti sa zvýši. Je to ako pridanie pruhov na diaľnicu ako riešenie riadenia dopravy. Keď to urobíte, povzbudíte viac ľudí, aby šoférovali. Skutočným trikom je nepridávať ďalšie pruhy pre autá, ale vybudovať svet, v ktorom potrebuje alebo chce riadiť menej ľudí.

„2) Bude existovať algoritmický a na údaje zameraný útlak. Vzhľadom na to, že tieto systémy budú navrhovať preukázateľne nedokonalé a zaujaté ľudské bytosti, pravdepodobne vytvoríme nové a oveľa menej viditeľné formy diskriminácie a útlaku. Tvorcovia týchto algoritmov a zberatelia údajov použitých na ich testovanie a prípravu nemajú ani zďaleka komplexné porozumenie kultúry, hodnôt a rozmanitosti. Počas veľkých športových udalostí v silnej hmle zabudnú otestovať svoje rozpoznávanie imidžu na tmavej koži alebo svoje lekárske diagnostické nástroje na ázijských ženách alebo na svojich dopravných modeloch. Budeme predpokladať, že stroje sú múdrejšie, ale uvedomíme si, že sú rovnako hlúpi ako my, ale lepšie ich skryjú.

„3) Budú vylúčené celé skupiny ľudí, ktorí s najväčšou pravdepodobnosťou vyhrajú ’tt vedieť o paralelnej realite, ktorú nezažívajú. Ovplyvnená bude každá oblasť života. Každý. Single. Jeden. "

Výzva na „reformu priemyslu“ a „dôvtipnejšie regulačné režimy“

Technológ Anil Dash povedal: „Najlepšie časti algoritmického vplyvu zlepšia život mnohým ľuďom, ale najhoršie excesy skutočne nepredvídateľným spôsobom poškodia tých naj marginálnejších. Na zvládnutie komplexných výziev, ktoré nastanú, budeme potrebovať reformu priemyslu v rámci technologických spoločností vytvárajúcich tieto systémy a oveľa dôvtipnejšie regulačné režimy. “

„Sme spoločnosť, ktorá berie svoj životný smer z dlane našich rúk“

John Markoff, autor Stroje láskyplnej milosti: Hľadanie spoločného základu medzi ľuďmi a robotmi a senior spisovateľ The New York Times poznamenal: „Najviac ma znepokojuje nedostatok algoritmickej transparentnosti. Stále viac sme spoločnosťou, ktorá berie svoj životný smer z dlane - našich smartfónov. Poradenstvo vo všetkom, od toho, čo je najlepšie kórejské grilovanie, po to, koho si vybrať pre manžela / manželku, je generované algoritmicky. Existuje však malý prehľad o hodnotách a motívoch dizajnérov týchto systémov. “

Opraviť „organizačné, spoločenské a politické prostredie, ktoré sme vybudovali“

danah boyd, zakladateľ spoločnosti Data & amp Society, poznamenal: „Algoritmus sám osebe nič neznamená. V stávke je, ako sa „model“ vytvára a používa. Model sa skladá zo sady údajov (napr. Školiacich údajov v systéme strojového učenia) spolu s algoritmom. Algoritmus nie je nič bez údajov. Model však tiež nie je ničím bez puzdra na použitie. Rovnakú technológiu je možné použiť na posilnenie postavenia ľudí (napr. Identifikácia ohrozených osôb) alebo ich poškodenie. Všetko závisí od toho, kto tieto informácie používa (napr. Sociálne služby vs. polícia). Vzhľadom na nezdravú dynamiku moci v našej spoločnosti bohužiaľ mám podozrenie, že výsledky budú oveľa problematickejšie - mechanizmy na obmedzenie príležitostí ľudí, segmentáciu a segregáciu ľudí do nerovných vedier a využitie sledovania, ktoré prinúti ľudí dostať sa do represívnejších situácií. Ale nemusí to tak byť. To, čo je v stávke, má len málo spoločného s technológiou, ktorá má čo do činenia s organizačným, sociálnym a politickým podnebím, ktoré sme vytvorili. “

Už máme algoritmický problém: Kreditné skóre

Henning Schulzrinne“Člen Internetovej siene slávy a profesor na Kolumbijskej univerzite poznamenal:„ Už máme včasné indikátory ťažkostí s algoritmickým rozhodovaním, konkrétne kreditné skóre. Ich výpočet je nepriehľadný a potom sa použili na všetky druhy účelov, ktoré boli veľmi vzdialené od poskytovania pôžičiek, ako sú napríklad rozhodnutia o zamestnaní alebo segmentácia zákazníkov na rôzne účely. Presakuje veľa súkromných informácií a sú zverejnené úmyselne alebo z nedbanlivosti subjektom, ktoré nekonajú v najlepšom záujme spotrebiteľa. Oprava údajov je náročná a časovo náročná, a preto nie je pravdepodobné, že budú k dispozícii jednotlivcom s obmedzenými zdrojmi. Nie je jasné, ako navrhované algoritmy riešia tieto dobre známe problémy, pretože často nepodliehajú žiadnym predpisom. V mnohých oblastiach sú vstupné premenné buď hrubé (a často proxy pre rasu), napríklad domáce poštové smerovacie číslo, alebo extrémne invazívne, napríklad monitorovanie správania sa pri jazde minútu po minúte. Vzhľadom na to, že neexistujú zákony o ochrane osobných údajov, existuje všeobecná motivácia pre subjekty, ktoré môžu sledovať naše správanie, ako napríklad reklamní makléri, aby speňažovali informácie o správaní. Minimálne inštitúcie, ktoré majú široký spoločenský dosah, by museli zverejniť použité vstupné premenné, ako ovplyvňujú výsledok a podliehať kontrole, nielen individuálnym opravám záznamov. Úprimná, overiteľná analýza nákladov a výnosov, merajúca zlepšenú účinnosť alebo lepšie výsledky proti strate súkromia alebo neúmyselnej diskriminácii, by zabránila rozhodovaniu „dôveruj nám, bude to úžasné a je to AI!“.

Algoritmy „vytvárajú hodnotu a znižujú náklady“ a budú vylepšené

Robert Atkinson, prezident Nadácie pre informačné technológie a inovácie, povedal: „Ako prakticky všetky predchádzajúce technológie, algoritmy vytvoria hodnotu a znížia náklady, ktoré výrazne prevyšujú akékoľvek náklady. Navyše, keď organizácie a spoločnosť získajú viac skúseností s používaním algoritmov, budú existovať prirodzené sily smerujúce k zlepšovaniu a obmedzovaniu akýchkoľvek potenciálnych problémov. “

„Cieľom by malo byť pomôcť ľuďom spochybniť autoritu“

Judith Donathová z Harvard Berkman Klein Center for Internet & amp Society, odpovedal: „Údaje môžu byť neúplné alebo nesprávne a algoritmy môžu obsahovať falošné predpoklady. Riziko zvýšeného spoliehania sa na algoritmy spočíva v tom, že rozhodovací proces sa stane vešteckým: nepriehľadným, ale neprekonateľným. Riešením je dizajn. Tento proces by nemal byť čiernou skrinkou, do ktorej vkladáme údaje, a odpoveď príde, ale transparentným procesom, ktorý má nielen priniesť výsledok, ale vysvetliť, ako k nemu dospel. Systémy by mali byť schopné vytvárať jasný a čitateľný text a grafiku, ktoré pomôžu používateľom - čitateľom, redaktorom, lekárom, pacientom, žiadateľom o pôžičku, voličom atď. - porozumieť tomu, ako bolo prijaté rozhodnutie. Systémy by mali byť interaktívne, aby ľudia mohli skúmať, ako by zmena údajov, predpokladov a pravidiel zmenila výsledky. Algoritmus by nemal byť novou autoritou, ale cieľom by malo byť pomôcť ľuďom spochybniť autoritu. “

Urobte viac pre výcvik kodérov s rôznymi pohľadmi na svet

Amy WebbFuturista a generálny riaditeľ inštitútu Future Today Institute napísal: „Aby naše stroje prinútili premýšľať, musíme im ľudia pomôcť naučiť sa. Spolu s ďalšími predprogramovanými súbormi školení sú naše osobné údaje používané na pomoc strojom pri rozhodovaní. Neexistujú však žiadne štandardné etické požiadavky ani mandát pre rozmanitosť, a v dôsledku toho už v súčasnosti začíname vidieť dystopickejšiu budúcnosť. Existuje príliš veľa príkladov na citovanie, ale uvediem niekoľko: potenciálnych dlžníkov odvrátených od bánk, jednotlivcov s čiernymi identifikačnými menami, ktorí sa ocitli v reklamách na kriminálne rešerše, ľuďom odmietnuté poistenie a zdravotnú starostlivosť. Tieto problémy väčšinou vyplývajú z obmedzeného pohľadu na svet, nie preto, že by kodéri boli vo svojej podstate rasisti. Algoritmy majú škaredý zvyk robiť presne to, čo im prikážeme. Čo sa teraz stane, keď sme svojim strojom dali pokyn, aby sa od nás učili? A začať sa rozhodovať sami? Jediným spôsobom, ako v budúcnosti riešiť algoritmickú diskrimináciu, je investovať do prítomnosti. Drvivá väčšina kodérov je bielych a mužských. Korporácie musia urobiť viac, než publikovať správy o transparentnosti o svojich zamestnancoch - musia aktívne investovať do žien a farebných ľudí, ktorí budú čoskoro ďalšou generáciou pracovníkov. A keď príde deň, musia si vybrať nových zamestnancov pre svoje schopnosti a svetonázor. Univerzity musia zdvojnásobiť svoje úsilie nielen pri nábore rozmanitého súboru študentov - administrátori a fakulty ich musia podporovať až do ukončenia štúdia. A nielen študenti. Univerzity musia diverzifikovať svoje fakulty, aby zaistili, že sa študenti budú odrážať vo svojich učiteľoch. “

Krátkodobý vplyv bude negatívny, v dlhodobom horizonte bude pozitívny

Jamais Cascio, významný pracovník Inštitútu pre budúcnosť, poznamenal: „Vplyv algoritmov v ére ranej transformácie bude celkovo negatívny, pretože sa my (ľudia, ľudská spoločnosť a ekonomika) pokúšame naučiť sa integrovať tieto technológie. Predpojatosť, chyby, korupcia a ďalšie spôsobia, že implementácia algoritmických systémov bude krehká a porovnateľne ľahké využitie týchto zlyhaní pre zlobu, politickú moc alebo lulz. Kým sa prechod prejaví - pravdepodobne dobrých 20 rokov, možno o niečo menej - mnohé z týchto problémov budú prekonané a pomocné úpravy (napr. Potenciálny nárast univerzálneho základného príjmu) začnú mať celkový prínos. Inými slovami, krátkodobý (v tomto desaťročí) negatívny, dlhodobejší (v nasledujúcom desaťročí) pozitívny. “

Príbeh sa bude stále posúvať

Mike Liebhold, vedúci výskumu a významný pracovník Inštitútu pre budúcnosť, poznamenal: „Budúce efekty algoritmov v našich životoch sa budú časom meniť, keď budeme ovládať nové kompetencie. Miera prijatia a šírenia bude veľmi nerovnomerná na základe prirodzených premenných geografických oblastí, životného prostredia, ekonomík, infraštruktúry, politík, sociológie, psychológie a - čo je najdôležitejšie - vzdelávania. Rast ľudských výhod strojovej inteligencie bude najviac obmedzovaný našimi kolektívnymi kompetenciami navrhovať a efektívne pracovať so strojmi. Absolútne minimum sa musíme naučiť vytvárať efektívne otázky a úlohy pre stroje, ako interpretovať reakcie a ako jednoducho odhaliť a opraviť chybu stroja. “

Urobte algoritmy „zrozumiteľnými, predvídateľnými a kontrolovateľnými“

Ben Shneiderman, profesor počítačových vied na University of Maryland, napísal: „Algoritmy sú dobre navrhnuté, zosilňujú ľudské schopnosti, ale musia byť zrozumiteľné, predvídateľné a kontrolovateľné. To znamená, že musia byť navrhnuté tak, aby boli transparentné, aby užívatelia pochopili dopady ich používania, a musia byť predmetom priebežného hodnotenia, aby kritici mohli hodnotiť zaujatosť a chyby. Každý systém potrebuje zodpovednú kontaktnú osobu/organizáciu, ktorá udržiava/aktualizuje algoritmus a sociálnu štruktúru, aby komunita používateľov mohla diskutovať o svojich skúsenostiach. “

V kľúčových prípadoch dajte používateľovi kontrolu

David Weinberger, vedúci výskumník z Harvard Berkman Klein Center for Internet & amp Society, povedal: „Algoritmická analýza vo veľkom môže priniesť vzťahy, ktoré sú prediktívne a nápomocné, aj keď sú mimo ľudskej schopnosti porozumieť im. To je v poriadku tam, kde je investícia nízka, ako napríklad odporúčanie knihy. Tam, kde je v stávke veľa, napríklad pri algoritmickom filtrovaní spravodajského kanála, musíme byť oveľa opatrnejší, najmä ak stimuly pre tvorcov nie sú v súlade so záujmami jednotlivcov alebo širších sociálnych statkov. V týchto posledných prípadoch sa zdá veľmi vhodné poskytnúť väčšiu kontrolu používateľovi. “


Kognitívna psychológia

Absolventi a fakulta vykonávajú výskum v zariadení na kognitívny výskum OU (OUCog), v laboratóriu vizuálnej neurovedy OU (OUVNL) a laboratóriu mozgu a biomarkerov (BABL) vo výskumnom areáli univerzity v Národnom inštitúte pre riziko a odolnosť OU a v Centre behaviorálnej neurovedy a výkonnosti OU (BNPC).

Výskumné zariadenie OUCog je súpravou priľahlých laboratórií, ktoré podporujú živé a interaktívne prostredie spolupráce v oblasti výskumu. V súprave sa v súčasnosti nachádzajú laboratória pre týchto členov fakulty: Dr. Cokely, Feltz, Gronlund a Kimball. Každé laboratórium obsahuje sadu troch vyhradených miestností. Laboratórium má tiež konferenčnú miestnosť a miestnosť na oddych a čakáreň/registračný priestor pre účastníkov. Okrem desiatok počítačov existujú aj sledovače očí, displeje Oculus Rift VR, systémy na záznam videa a zvuku sledujúce pohyb a počítače s rozhraním dotykovej obrazovky. Na vytváranie stimulov a analýzu dát má laboratórium niekoľko výkonných pracovných staníc PC a Mac nakonfigurovaných so softvérom na grafickú analýzu a analýzu dát (napr. EPrime, Mathematica, Photoshop, Matlab, R, SPSS a SAS).

Laboratórium OUVNL a BABL Lab zdieľajú súpravu, ktorá v súčasnosti podporuje týchto členov fakulty: Dr. Michael Wenger a Lauren Ethridge zo psychológie a Lei Ding z OU v škole počítačového a elektrotechnického inžinierstva (odborník na lokalizáciu kortikálnych zdrojov signálov EEG a rozhraní mozog-stroj). Laboratórium obsahuje dve EMF/RF tienené, zvukovo a svetlom oslabené komory na zber údajov EEG a dve ďalšie komory zoslabené zvukom a svetlom na zber psychofyzikálnych údajov. V laboratóriu sa nachádzajú tri systémy EEG s vysokou hustotou a dva systémy EEG s nízkou hustotou. OUVNL podporuje vizuálnu psychofyziku a behaviorálne testovanie pomocou sady rýchlych monitorov CRT v šedej škále vybavených vlastným softvérom na zobrazenie. Odozvy je možné načasovať na ± 1 ms v sérii na mieru navrhnutých boxov s ôsmimi tlačidlami. Na vytváranie stimulov a analýzu údajov má laboratórium tri počítače iMac a jednu pracovnú stanicu Linux nakonfigurovanú so softvérom na analýzu grafiky a údajov (Gimp, Photoshop, Matlab, R a SAS). BABL, pod vedením doktorky Lauren Ethridgeovej, je multidisciplinárne translačné neurovedné laboratórium zamerané na aplikáciu základných vied na klinické výsledky, najmä pri poruchách neurového vývoja. Skupina BABL sa zameriava na použitie hustého poľa EEG ako translačného nástroja na získanie ďalších informácií o funkcii mozgu pri poruchách neurového vývoja.

Výskum v BNPC OU sa zameriava na optimalizáciu výkonu v profesiách citlivých na bezpečnosť. Výskum BNPC je v zásade interdisciplinárny a kombinuje štúdium individuálnych rozdielov, poznávania, vzrušenia/stresu a ľudských faktorov. Centrum spája vedcov z inžinierstva, biológie, žurnalistiky, psychológie a vedy o zdraví a cvičeniach s jedným spoločným účelom.


Aký je problém s algoritmami?

Môžem sa s tebou vyrovnať? Nie som si vždy istý, či viem, o čom ľudia hovoria, keď hovoria algoritmus?

Nie ste sami: Úprimne povedané, ani ja som si nebol vždy istý, čo som tým myslel, keď som to povedal. Ale tu je úplne najjednoduchšia definícia: Algoritmus je súbor pokynov, ktoré opisujú, ako vykonať úlohu. (Kliknutím sem získate podvodník.)

Poď. To je všetko?

Áno. Ako zdôraznil John Villasenor z UCLA, znamená to, že aj niečo také neškodné ako recept alebo zoznam trás do domu priateľa možno chápať ako algoritmus. Veci sú o niečo komplikovanejšie v kontexte počítačovej vedy, kde sa tento výraz najčastejšie vyskytuje, ale iba mierne. Vo svojej knihe Hlavný algoritmusPedro Domingos ponúka majstrovsky jednoduchú definíciu: „Algoritmus je,“ píše Domingos, „postupnosť pokynov, ktoré počítaču hovoria, čo má robiť.“ Ako Domingos ďalej vysvetľuje, algoritmy sú redukovateľné na tri logické operácie: AND, OR a NOT. Aj keď sa tieto operácie môžu spájať mimoriadne zložitými spôsobmi, v jadre sú algoritmy postavené na jednoduchých racionálnych asociáciách.

Začína to znieť, že tu hovoríme iba o počítačovom kóde.

Nemýliš sa. Obchodníci zo Silicon Valley tento výraz milujú algoritmus, pretože vďaka tomu sa funkcie, ktoré predávajú, zdajú byť trochu záhadnejšie, a preto možno aj trochu lákavejšie. Faktom je, že väčšina z nás nechápe, ako fungujú naše počítače (alebo naše telefóny alebo hodinky), ale väčšinou máme aspoň všeobecný prehľad o tom, aký kód je. Pretože je to menej známe, algoritmus má tendenciu zdôrazňovať našu neistotu.

Čím sú potom algoritmy špeciálne?

Vo všeobecnosti platí, že keď ľudia v dnešnej dobe hovoria o algoritmoch, hovoria o niečom konkrétnejšom, ako sú operácie, ktorými sa poháňa náš spravodajský kanál sociálnych médií. Tak či onak, väčšina týchto systémov je príkladom technológie tzv strojové učenie. Namiesto opakovaného spracovania stabilnej sady inštrukcií sa systémy založené na strojovom učení pri svojej práci prepíšu. Práve to niektorých ľudí desí, pretože algoritmy znejú ako živé, možno dokonca vnímavé. (Aby bolo jasné, nie sú ani oni.)

V článku o Domingose Hlavný algoritmus, BridlicaDavid Auerbach poznamenáva, že „aj v rámci počítačovej vedy je strojové učenie obzvlášť nepriehľadné“. Je to však stále dôležitejšie pre spôsob, akým žijeme, a preto je rozptýlenie tejto hmly o to dôležitejšie. Časť problému však spočíva v tom, že algoritmy strojového učenia sa samy efektívne programujú, čo znamená, že môžu byť niekedy nepredvídateľné alebo dokonca mierne cudzie. Ich operácie sú niekedy nejasné aj pre tých, ktorí ich pôvodne vytvorili!

Čo môžete robiť s týmito algoritmami?

Tak veľa vecí! V dnešnej dobe sa používajú na množstvo účelov, napríklad na automatizáciu obchodovania na akciovom trhu alebo zobrazovanie reklám návštevníkom webových stránok. Jednou z prvých aplikácií tejto technológie-na ktorej stále pracujeme-bolo takzvané strojové videnie, v ktorom sa počítače pokúšajú identifikovať rôzne prvky obrázku. Je to druh systému, ktorý vám môže povedať (alebo tvrdiť), ako horlivo vyzeráte na obrázku, alebo identifikovať tie najnápaditejšie obrazy všetkých čias.

Strojové videnie je dôležitým príkladom, pretože ukazuje aj spôsob, akým sa algoritmy často učia, ako vykonávať svoju prácu lepšie, a to tak, že ich narúša, niekedy veľmi verejne. Tieto chyby môžu byť hlúpe, ako keď Wolfram Alpha mýli roztomilú kozu pre psa, ale môžu byť aj úplne škaredé, ako keď Fotky Google nesprávne identifikovali dvoch černochov ako gorily.Nikto vedome neučil systém vytvárať rasistické závery, ale parametre, ktoré programátori nastavili, ho mohli primäť k tomu, aby tam dospel. Spoliehať sa na strojové učenie je riskantné, pretože ide o systémy, ktoré sa učia dávať veci do poriadku tým, že ich opakovane robia zle. Práca s nimi preto znamená prijať takmer nevyhnutné chyby a chyby.

Určite to nie je len o tom, naučiť počítače vidieť ...

Samozrejme, že nie. V skutočnosti najsľubnejšou - a najproblémovejšou - vlastnosťou niektorých algoritmov môže byť ich schopnosť rozhodnúť sa, čo my vidieť a ako to vidíme. Keď položíte digitálnemu asistentovi, ako je Siri alebo Cortana, otázku, algoritmické operácie informujú o jeho zmysle o tom, čo ste sa pýtali, a o informáciách, ktoré poskytuje. Strojové učenie tiež pomáha Mapám Google určiť najlepšiu trasu z jedného miesta na druhé. A existuje prakticky neobmedzená škála ďalších funkcií, ktoré môžu algoritmy slúžiť: Niektoré z prvých komerčných aplikácií algoritmov zahŕňali automatizáciu úloh, ako je správa miezd, ale s nárastom súčasného strojového učenia sa používajú na oveľa sofistikovanejšie úlohy. Algoritmy určujú, kto by mal dostávať vládne výhody, prispievať k prediktívnej polícii, pomáhať predvídať zdravotné krízy, prehodnocovať lety leteckých spoločností a mnoho ďalších.

Existuje ešte veľa vecí, ktoré algoritmy nedokážu. Napríklad pri algoritmoch celkom dobré pri rezervácii cestovania, letecké spoločnosti zistili, že nemôžu upustiť od ľudských rezervačných agentov. Napriek tomu, že algoritmy zaručujú účinnosť, nie sú skvelé v simulácii súcitu a iných ľudských vlastností.

Vyrovnávajú sa teda ľudia a algoritmy?

Nie nevyhnutne! Zvážte, že pre mnohých z nás je najznámejším príkladom algoritmu strojového učenia pravdepodobne informačný kanál z Facebooku. V tomto zmysle môžu algoritmy priniesť veľa dobrého: určite väčšina z nás má skúsenosti s opätovným spojením s dlho stratenými známymi prostredníctvom zoznamov priateľov navrhovaných spoločnosťou Facebook. Je to algoritmická operácia, ktorá nás zbližuje, a nie rozdeľuje. Ako BridlicaWill Will Oremus ukázal, že spoločnosť sa neustále pohráva s tým, ako funguje jej spravodajský kanál. Facebook nesleduje len to, ako dlho strávite prezeraním jednotlivých príspevkov, ale tiež starostlivo vyhodnocuje, čo vlastne chceme vidieť, pričom sa zameriava na nás, a nielen na základnú matematiku. Podobne aj hudobné služby, ako napríklad Pandora, používajú naše zvyky pri počúvaní na odporúčanie nových piesní a interpretov, ktorých by sme inak možno neobjavili, a niekedy nás pritom vytlačia zo svojich zón pohodlia. Kritici sa sťažujú, že algoritmy robia náš svet menším a oddeľujú nás jeden od druhého. Tieto operácie však naznačujú, že nám v skutočnosti môžu pomôcť spojiť sa s neznámym - a dávno zabudnutým.

Vráťme sa k otázke nepriehľadnosti. O čo ide?

Aby mohli algoritmy vykonávať všetky skvelé činnosti, ktoré robia, musia o nás vytvárať komplexné obrázky. Problém je v tom, že algoritmy o nás toho veľa vedia, zatiaľ čo my o nich vieme tak málo. Auerbach tvrdil, že operácie sofistikovaných algoritmov strojového učenia sú často takmer rovnako temné pre tých, ktorí ich vytvárajú, ako pre nás ostatných. Je to dôsledok veľkosti spoločností, ako je Google, ale tiež to vyplýva zo zložitosti samotných programov. Naznačuje, že by sme nemali vždy predpokladať, že spoločnosti konali zlomyseľne, keď počítač urobí niečo zlé, pretože jeho zdanliví majstri nemusia ani tušiť, že bol naklonený tak jednať.

To však neznamená, že algoritmy nie sú rasistické, keď povedzme častejšie poskytujú reklamy o záznamoch o zatknutí ľuďom, ktorých mená sú spojené s černošskou populáciou - to rozhodne sú. A keby niečo, toto všetko môže znamenať, že naozaj mať vzhľadom na to, že algoritmy majú príliš veľkú silu, pretože nemôžeme ani začať chápať - nieto ešte regulovať - ​​veľkú časť toho, čo robia.

Súhlasí s tým každý?

Nie každý. Výskumník bezpečnosti Adam Elkus napríklad obhajoval algoritmy a tvrdil, že väčšina problémov, s ktorými sa s nimi stretávame, je skôr sociálna než výpočtová. Problém nie je v tom, že algoritmy sú nepriehľadné čierne skrinky, ale v tom, že celý náš systém je byrokratický. Tvrdí, že algoritmy sú rovnako invazívne, obmedzujúce alebo inak problematické ako sociálny kontext, ktorý podporujú. Filozof Michel Foucault opísal moc ako druh rozloženej sily, ktorá pochádza skôr zo spôsobu, akým internalizujeme normy a očakávania, než z diktátu prezidentov a kráľov. Keď hovoríme o sile algoritmov, pravdepodobne identifikujeme podobnú operáciu - nie silu jednotlivého herca, ktorý vie príliš veľa, ale silu systému, v ktorom sme už odoslané.

Je to teda chyba spoločnosti? Musíme algoritmy vypustiť?

Aj keď je pravda to, čo hovorí Elkus, niektorí by mohli naznačovať, že algoritmy môžu skomplikovať existujúce predsudky a ďalšie problémy. Federálna obchodná komisia identifikovala niektoré problémy s analýzou veľkých dát, ktoré sú priamo prepojené s nejasnosťami algoritmov, do ktorých spoločnosti tieto údaje pripájajú. Ak nevedome zapracujeme predsudok do modelu zberu údajov, varuje FTC, môžeme v tomto procese skončiť s ešte viac predsudkovými algoritmami.

Podobné problémy sa už dostávajú do popredia takzvanej prediktívnej polície. Napriek tomu, že algoritmy nám nikdy nedovolia čítať budúcnosť, niektorí tvrdia, že môžu pomôcť orgánom činným v trestnom konaní lepšie alokovať zdroje. Podľa profesora informatiky Michiganskej univerzity H.V. Jagadish, tieto algoritmy môžu nakoniec presadzovať vzorce, proti ktorým sú navrhnuté. Podobné obavy zaujímajú právnických vedcov, ako je Frank Pasquale, ktorý vo svojej knihe varuje Spoločnosť Black Box že temnota našich algoritmov môže zintenzívniť problematické predpoklady, sociálne štruktúry a podobne, ktoré do nich začleňujeme.

Budú algoritmy ovládať? všetko?

Nie nevyhnutne! Mnohé z najznámejších a zdanlivo najsilnejších algoritmov sa spoliehajú na vstupy ľudí viac, ako by ste si mohli uvedomovať. Ako sa Oremus dozvedel, keď sa pozrel na algoritmus Facebooku, spoločnosť sa v skutočnosti spoliehala na skupiny veľmi skutočných „silných používateľov“, ktoré jej pomohli doladiť svoje nástroje. A vychvaľovaný zoznam skladieb Discover Weekly od Spotify funguje tak, že identifikuje používateľov, ktorých nedávne zvyky počúvania sa podobajú vašim, a potom z nich zostaví zoznam skladieb. ich zoznamy skladieb. Opýtajte sa jedného z vývojárov tejto funkcie a ten vám tiež prizná, že vám pravdepodobne povie, ako povedal Matthew Ogle zo spoločnosti Spotify mne a ďalším, že ide o „ľudí úplne dole“.

Tento biznis „úplne dole“ samozrejme parafrázuje famózne hlúpu rečovú figúru, ktorá je predovšetkým o ignorovaní skutočnej komplexnosti vesmíru. A tam, kde nám vesmír stále odhaľuje svoje tajomstvá, algoritmy sú stále nejasnejšie, keď ich zdokonaľujeme - a keď sa učia sami seba prerábať. Ak niečo také, zvyšuje to našu povinnosť pokúsiť sa im porozumieť. Preto Futurography strávi zvyšok februára na túto tému. A my chceme vašu pomoc! Na aké otázky by sme sa mali pokúsiť zodpovedať? A čo berieš ty?

Tento článok je súčasťou inštalácie algoritmov Futurography, série, v ktorej Future Tense predstavuje čitateľom technológie, ktoré definujú zajtrajšok.. Každý mesiac od januára do mája 2016 vyberieme novú technológiu a rozložíme ju. Prečítajte si viac z futurografie o algoritmoch:

Future Tense je spolupráca medzi Štátna univerzita v Arizone, Nová Amerikaa Bridlica. Ak chcete dostávať najnovšie správy z Futurography do svojej doručenej pošty, zaregistrujte sa na odber týždenného bulletinu Future Tense.


Pozri si video: Algoritmy 1 - principy, diagramy, vstupy a výstupy přednáška (August 2022).