insider

tekst vertaalt in google translate:

Door Ben Goertzel

Dit “redactioneel” artikel vertegenwoordigt de persoonlijke opvattingen van de auteur, gevormd door zijn 3 decennia in de AI-onderzoeksgemeenschap en 2 decennia als AI-ondernemer. Het vertegenwoordigt absoluut geen officiële positie van H + Magazine of Humanity +.

Ik werk sinds eind jaren tachtig in het AI-veld en hoo boy heeft dingen veranderd!

Een grap die ik soms in conferentietoespraken vertel, is als volgt: “5 of 10 jaar geleden, toen ik mensen vertelde dat ik bezig was met het bouwen van denkmachines op menselijk niveau, vertelden mensen me dat ik gek was. Nu antwoorden ze gewoon ‘Wacht even, heeft Google dat vorig jaar al niet gedaan? Waarom werk je er nog aan? ‘”

Het is niet de beste grap ter wereld, of zelfs de beste grap die ik ooit heb verteld, maar het is gebaseerd op de realiteit. En het pakt twee zeer relevante feiten over het huidige tijdperk in:

1) Kunstmatige algemene intelligentie (AGI) wordt steeds serieuzer genomen

2) AI wordt in toenemende mate gecorporatiseerd – gezogen naar grote bedrijven, die op hun beurt soms nauw samenwerken met overheden

De eerste van deze feiten, denk ik, is overwegend een zeer goed ding. AGI heeft een enorm potentieel om mensen op zoveel verschillende manieren te helpen – om veroudering en ziekte te genezen, om menselijke intelligentie en emotionele bevrediging te verbeteren, om de noodzaak te elimineren om te werken voor een leven, om onvoorstelbare en opwindende nieuwe grenzen te openen.

De tweede van deze feiten, ik ben niet erg blij met. Ik denk zelfs dat het iets is dat we het beste kunnen doen om zo goed mogelijk tegen te werken.

Wat het eerste feit betreft – eigenlijk, voor degenen onder ons die al lang betrokken zijn bij het AI-veld, is het ongelooflijk opvallend hoe groot de verschuiving daar is geweest. Het was nog niet zo lang geleden dat de visie van menselijke en transhumane AGI puur de provincie was van een paar technici en science fictionfanatici met wilde ogen. Nog maar een decennium geleden, toen ik de AGI-conferentieserie voor het eerst lanceerde, was AGI nog steeds vrij de achtervolging. Op dat moment moest een KI-hoogleraar met interesse in AGI die interesse verbergen om een ​​vaste aanstelling te krijgen … ze moesten doen alsof hun hoofdbelang was in plaats daarvan in zeer gespecialiseerde algoritmen en de oplossing van smalle domeinspecifieke problemen. Tegenwoordig zijn de meeste academische AI-papers nog steeds op hooggespecialiseerde zaken, maar het is prima om te praten over geavanceerde AGI in het facultaire seminar, en niet alleen aan de bar na het werk wanneer iedereen op passende wijze wordt gehamerd. Op dit punt is de wereld bijna vergeten dat het AGI-concept en de droom ooit zo volledig werden verstoten en gemarginaliseerd.

En het is niet verrassend of slecht dat er, naast deze toenemende acceptatie van de levensvatbaarheid van Artificial General Intelligence, recentelijk een dramatisch toenemende belangstelling is ontstaan ​​voor de commerciële toepassingen van AI … en zelfs in de toekomstige commerciële toepassingen van AGI. Dit is grotendeels om goede redenen – dankzij de vooruitgang op het gebied van computerhardware en -software en AI en cognitieve wetenschap levert AI-software nu dramatische bedrijfswaarde in tal van industriesectoren. Een deel hiervan is zeer zichtbaar voor gemiddelde mensen – zoals gezichtsherkenning op Facebook of zelfrijdende auto’s – en andere toepassingen zijn meer back-end, zoals intelligent supply-chain management of fraudedetectie of machine learning in genomics voor drug discovery. Maar de waardevolle praktische toepassingen zijn niet in de tientallen, ze zijn minstens tienduizenden – en groeien. Er is tegenwoordig behoorlijk wat hype aan AI in de zakenwereld, maar ik zie de situatie net als het internet aan het einde van de jaren negentig. Er was veel hype in de dot-com-bubble, maar onder dit alles was er een fundamenteel transformerende technologie.

Wat me echter een beetje stoort, is de manier waarop de commerciële toepassingen van AI worden gedomineerd door een vrij kleine reeks grote bedrijven – en de impact hiervan op de richtingen en aard van AI-onderzoek en -toepassingen.
Grote bedrijven domineren steeds meer het AI-veld

Schaalvoordelen bestaan ​​in de tech-industrie om redelijk algemene redenen; en ze bestaan ​​ook in AI om wat extra, specifieke redenen. Hedendaagse AI-technologie is in hoge mate gebaseerd op trainings-AI-systemen die grote hoeveelheden gegevens gebruiken, en dit is gunstig voor organisaties die grote hoeveelheden gegevens hebben kunnen verzamelen. Er is hier een duidelijk fenomeen van toenemend rendement: meer gegevens leveren slimmere AI-toepassingen op, waardoor meer klanten en meer geld worden verdiend, waardoor meer gegevens worden opgehaald, enzovoort.

Wat we nu in de technische wereld zien, is dat een relatief klein aantal grote bedrijven een zeer groot aantal nieuwe AI-doctoraten opslokt en KI-ontwikkelaars heeft meegemaakt. Verder is het standaard lot voor een AI-startup tegenwoordig om gekocht te worden door een groot technologiebedrijf. In feite dienen tech-startups als stealth-rekruteringstools voor grote bedrijven, gebruikt om jonge ontwikkelaars en onderzoekers op te slokken die zich niet echt als een carrière in het grootbedrijf voelen. Deze jonge nerds melden zich aan voor een opwindende startup, maar dan wordt de startup onvermijdelijk verkocht aan een groot bedrijf en eindigen ze in een kleine mate (tenzij ze oprichters of zeer vroege werknemers zijn, in welk geval ze eigenlijk kunnen werken) rijk worden) en in de greep van een groot bedrijf. Sommigen ontsnappen en gaan terug naar een ander soort leven; velen blijven in de grote bedrijfswereld. Sommige kaatsen heen en weer tussen grote bedrijven en startups keer op keer.

We hebben nog niet veel opwindende fundamentele nieuwe AI-innovaties te zien gekregen van al het bedrijfsgeld dat is besteed aan het AI-veld. De belangrijkste algoritmische en conceptuele innovaties lijken nog steeds afkomstig te zijn van universiteiten, voornamelijk uit de VS en West-Europa, sommige uit Japan of Rusland. China doet een enorme hoeveelheid AI R & D, maar nog steeds grotendeels het verfijnen en toepassen van concepten die zijn ontstaan ​​en eerder zijn gebruikt in het Westen. Wat we hebben gezien vanuit de grote zakelijke AI is echter een heleboel indrukwekkende, elegante, schaalbare praktische toepassingen van AI-methoden die verschillende academici hebben gemaakt.

Het kanaliseren van AI-expertise naar grote bedrijven heeft een belangrijke impact op de soorten problemen waar AI voornamelijk op wordt toegepast. Reclame krijgt bijvoorbeeld ontzettend veel aandacht. De relatief ruwe methoden van Cambridge Analytica voor social media-engineering, toegepast op politieke campagnes, kregen veel aandacht in de laatste presidentsverkiezingscyclus van de VS. Maar Google, Facebook en Baidu (onder andere) hebben veel meer geavanceerde manipulatiemachines, die niet worden gebruikt om kandidaten te kiezen, maar om mensen te sturen om producten en diensten te kopen.

De hoeveelheid technische glans die wordt gesluisd in de toepassing van AI op reclame – in tegenstelling tot bijvoorbeeld medisch onderzoek of bestrijding van landbouwziekten of verbetering van voorschools onderwijs – zou schokkend zijn als het niet zo volledig in lijn zou zijn met de algemene geest van de moderne samenleving. .

De connecties tussen de corporate AI-community en de meer dubieuze aspecten van de overheid zijn ook hier te zien. Het is heel duidelijk in China, waar Baidu, Tencent en Alibaba geen enkele reden hebben om hun overheidsverbindingen te verbergen. In de VS hebben we Palantir, die methoden van Silicon Valley toepast – en de expertise van verschillende veteranen van Silicon Valley – om de IT-infrastructuur van Amerikaanse inlichtingendiensten te optimaliseren.

Begrijp me niet verkeerd – ik vind het niet erg dat deze bedrijven bestaan ​​en hun dingen doen. Ik wil gewoon liever dat ze niet zo’n groot percentage van de AI-gemeenschap omvatten.
Overheidsregulering van AI zou grote bedrijven waarschijnlijk ten goede komen

Ik was een beetje verbijsterd om Elon Musk te lezen, een van de favoriete tech-ondernemers van iedereen, die onlangs heeft opgeroepen tot overheidsregulering van de ontwikkeling van AI.

Ik twijfel niet aan de oprechtheid van Musk – hij maakt zich duidelijk zorgen over de mogelijke nadelen van gevorderde AI, en hij hoopt dat op de een of andere manier de collectieve geest van de mensheid samen kan komen om kwelgeesten te verpletteren die proberen KI in te zetten voor destructieve doeleinden.

Aan de andere kant is het ook een beetje dubieus voor iemand die voormalig technisch adviseur is van president Trump en de CEO is van een omvangrijk bedrijf dat aanzienlijke overheidssubsidies ontvangt, om overheidsregulering te vragen.

Ik bedoel – als de Amerikaanse overheid AI zou reguleren, wie zou dan volgens jou toestemming krijgen om AI te ontwikkelen? Misschien worden bedrijven gerund door mensen met interne contacten in Washington? Misschien ontvangen bedrijven al veel overheidssubsidies?

In principe is het idee van het samenkomen van de mensen op aarde om te kiezen welke richting AI-ontwikkeling moet uitgaan, logisch. Net zoals de mensen samen zouden moeten komen om te bepalen hoe dieren behandeld zouden moeten worden, en welke landen zouden moeten worden ontwikkeld en welke landen zouden moeten worden verlaten, enz. Geavanceerde AI-ontwikkeling heeft voldoende brede implicaties die, zoals nanotech en biotech en lucht- en waterverontreiniging en klimaatverandering, het is duidelijk een kwestie van publieke bezorgdheid en niet iets dat volledig aan particulieren en organisaties kan worden overgelaten om voor zichzelf te zorgen.

Onze huidige gouvernementele systemen hebben echter een zeer sterke neiging om regels te buigen voor iedereen die de beste lobbyisten kan betalen. Kijk naar de financiële voorschriften van de VS, die in hoofdzaak zijn geschreven door Wall Street-bedrijven om hun eigen voordeel te waarborgen. Kijk naar China’s Great Firewall, die een rol speelt bij de sociale regulering en ook Baidu en Tencent en Alibaba (alle bedrijven met nauwe overheidsbanden) hun dominantie over buitenlandse concurrenten garandeert.

Kan er echt veel twijfel over bestaan ​​dat, als de overheid AI zou reguleren, deze voorschriften geneigd zouden zijn om die AI-bedrijven met de best betaalde en slimste groepen lobbyisten en de beste overheidsverbindingen te bevoordelen? Als de bedrijven met de beste overheidsverbindingen ook de meest ingenieuze en ethische bedrijven zouden zijn, zou dit niet zo’n slecht probleem zijn. Maar ik zie geen reden om te geloven dat dit nu het geval is, of in de nabije toekomst zal zijn.

Dus het is niet genoeg om te zeggen dat we een soort overheidsregulering nodig hebben van AI, terwijl we van AI naar AGI gaan. Natuurlijk doen we dat. Maar we hebben dit nodig in de context van een fundamenteel minder verknoeid soort regering. De eerste regulering van AI en de fundamentele verbetering van de overheid na, is waarschijnlijk een recept voor een ramp. Het is een recept om ’s werelds krachtigste technologie in handen te krijgen van grote bedrijven die hun inspanningen richten op zaken als adverteren en optimalisatie van overheidsspionagewerkzaamheden, die zeker niet de menselijke soort zijn die maximaal algemeen voordeel oplevert. Het is een recept voor het gebruik van AI om de wereldwijde rijkdom en inkomensongelijkheid te vergroten en zo lijden en conflict in de ontwikkelingslanden te zaaien.
De risico’s van wereldwijde rijkdomongelijkheid

Elon Musk, zoals Nick Bostrom en Eliezer Yudkowsky en anderen in dezelfde gemeenschap, lijkt zich vooral zorgen te maken over de potentiële risico’s van massaal bovenmenselijke AGI’s zodra ze verschijnen. Deze risico’s zijn reëel en mogen niet worden genegeerd; Ik heb hierover een aantal standpunten gegeven in een reeks recente artikelen (zie infor matie van AI’s met Humanlike Value Systems en Superintelligence: Fears, Promises and Potentials). Aan de andere kant moeten we op zijn minst even bezorgd zijn over de risico’s van wereldwijde ongelijkheid in rijkdom en de woede en ontevredenheid die het bevordert.

Zoals ik in een recent essay (How To Save The World) heb opgemerkt, herbergt de ontwikkelingslanden een toenemend aantal tech-geeks met solide wetenschap en techniek, maar een zeer gerechtvaardigd gevoel van disenfranchisement van de moderne wereldeconomie. Dit feit betekent een grote kans verloren voor de mensheid (iedereen met een achtergrond in AI of mechatronica of biotech die in een low-tech baan werkt vanwege het land waarin ze zijn geboren, is een verlies voor de vooruitgang van de mensheid naar een positieve Singulariteit) . En het heeft ook allerlei destructieve mogelijkheden.

Naarmate de technologie vordert, wordt het voor kleinere en kleinere groepen mensen eenvoudiger en gemakkelijker om steeds meer ravage aan te richten. De reden dat geavanceerdere technologische rampen momenteel niet in de wereld worden gezaaid, is dat over het algemeen de mensen met de meeste technische kennis en karbonades geen grote schade willen aanrichten. Maar aangezien er steeds meer gemarginaliseerde wetenschap en tech-geeks verschijnen in de derde wereld – die geen visum kunnen krijgen voor Silicon Valley, Londen of Peking, en die $ 4 / uur betaald krijgen voor Upwork voor exact hetzelfde werk dat iemand in Silicon doet Valley krijgt daarvoor $ 80 / uur betaald – er kunnen heel wat meer mensen verschijnen met zowel de karbonades als de psychologische / culturele / situationele motivatie om ravage aan te richten.

Overheidsregulering die alleen goed aangesloten bedrijven toestaat om AI te creëren, zou niet helpen dit soort risico’s te verminderen. Integendeel, het zou rijkdom en kansen alleen maar veroorzaken om meer en meer gecentraliseerd en gelokaliseerd te worden.

Sommigen zullen beweren dat ongelijkheid in rijkdom precies is zoals het zou moeten zijn, omdat individuen met ongelijke bekwaamheden en bijdragen een ongelijke compensatie verdienen van de samenleving – net zoals individuen met verschillende bekwaamheden in staat zijn om verschillende opbrengsten van de natuurlijke wereld te plukken. Maar toch – het is erg moeilijk om te betogen dat de moraliteit of eerlijkheid van een nieuwe universitair afgestudeerde in, laten we zeggen, mechatronica 20x meer verdienen als ze toevallig zijn geboren in Los Angeles in plaats van Lalibela ….

Wat we nodig hebben om de immoraliteit en het risico van toenemende ongelijkheid in rijkdom te vermijden, is dat AI zodanig wordt ontwikkeld dat

richt zich op taken van een dieper en breder belang voor de mensheid dan op taken die gericht zijn op het vergroten van de verschillende rijkdom of status of militaire macht van een bepaalde sociale groep
omvat een breed scala van mensen over de hele wereld in haar ontwikkelingsproces.

Op dit moment lijkt overheidsregulering en nauwe overheidscontrole niet de beste manier om deze doelen te bereiken. Omdat de grote nationale regeringen in de wereld, en de meeste minder belangrijke, grotendeels onder de greep van relatief kleine aantallen grote bedrijven en vermogende particulieren lijken te staan.

Open source software en hardware-ontwikkeling lijkt een manier te zijn om de bovenstaande doelen te bereiken. Het democratiseren van educatieve media zoals open online cursusmateriaal is een ander deel van het verhaal. Ik heb het belang van deze en andere decentraliserende technologieën besproken in het essay dat ik hierboven noemde: “How To Save The World.”

Maar de moderne corporatocratie maakt zelfs intrinsiek democratiserende verschijnselen zoals opensource ingewikkeld. Grote technologiebedrijven publiceren nu routinematig open source software, zoals de Tensorflow deep learning toolkit van Google. Tensorflow is in veel opzichten gelikter en gemakkelijker in gebruik dan vergelijkbare deep learning-tools die door universiteitsteams zijn gemaakt – wat niet verwonderlijk is, aangezien Google hoogbetaalde professionals heeft gebruikt om te werken aan documentatie, tutorials, gebruikersinterfaces en andere zeer nuttige toeters en bellen die laag zijn – budget open source tools ontbreken vaak. Aan de andere kant, terwijl Tensorflow opensource code is, is het ontwikkeld op een nogal “gesloten” manier. Google stuurt regelmatig een volledig geformuleerde code uit die enkele nieuwe functionaliteiten bevat in de opensource Tensorflow-codebase. Het ontwikkelingsproces gebeurt niet openlijk zoals bij klassieke opensourceprojecten. Insider Google-ontwikkelaars en hun manager krijgen alle strategische beslissingen en kernontwerpkeuzes – niet willekeurig geïnteresseerde ontwikkelaars buiten Google’s in dienst.

Een cynicus zou kunnen beweren dat initiatieven zoals Google’s Tensorflow en OpenAI van Elon Musk pogingen zijn om de opensource AI-gemeenschap vast te leggen in de baan van bepaalde grote bedrijven. Deze opensource-initiatieven zijn gebaseerd op bedrijven en bungelen glanzende interfaces en gelikte API’s voor opensource AI-ontwikkelaars, waardoor ze worden overgehaald om te werken aan problemen en hulpmiddelen die van belang zijn voor de betrokken bedrijven. Deze bedrijven hebben dan een grote populatie van potentiële nieuwe aanwervingen om uit te kiezen, die al zijn getraind in het toepassen van door die bedrijven gemaakte software op problemen van praktisch belang voor genoemde bedrijven.

Een ander kenmerk van de huidige grootschalige AI-inspanningen is dat ambitieuze managementpraat die raakt aan AGI, vaak gepaard gaat met technisch werk dat bijna volledig gericht is op zeer beperkte toepassingsspecifieke problemen. Er zijn een paar eilanden van echt AGI-georiënteerd werk binnen grote bedrijven – maar lang niet zoveel als een niet-expert zou kunnen denken gezien de retoriek rondstuitert. IBM Watson is een expertsysteem en een datamining-framework, maar uit het marketing-proza ​​zou je kunnen denken dat het een serieuze poging was om een ​​denkmachine te maken. Google en Facebook en Baidu hebben enkele vrij kleine teams die direct AGI-achtig werk doen, maar een overgrote meerderheid van hun AI-personeel werkt aan zeer specifieke problemen gericht op het verhogen van de bedrijfsinkomsten.

Het bijna verdwijnen van haalbare bedrijfsmodellen voor journalistiek heeft het vermogen van het grote publiek om te begrijpen wat voor soort vooruitgang de grote divisies van AI van een bedrijf zijn en niet maken, ernstig aangetast. Omdat steeds meer mensen nieuws willen lezen om redenen van gemak, en omdat de meeste online advertentie-inkomsten van mensen die nieuws lezen, naar grote technologiebedrijven gaan en niet naar nieuwsmedia-bedrijven, is er niet veel geld om journalisten zorgvuldig te betalen evalueren AI-gerelateerde PR-claims gemaakt door grote bedrijven. Vorig jaar las ik bijvoorbeeld een heleboel ongelooflijk gloeiende artikelen over Google’s revolutionaire vooruitgang in machinevertaling, gemaakt via overdrachtsonderwijs tussen verschillende talen. Voor een korte periode werd ik bijna gesneeuwd door de persberichten, cum-nieuwsartikelen, en begon ik me af te vragen of de machinevertaling in grote mate was opgelost. Maar een paar voorbeelden volstonden om te verduidelijken dat de Engels-Chinese vertaling van Google Vertalen behoorlijk vreselijk bleef. Het verminkte zelfs “Long Live Chairman Mao”! Maar de gemiddelde lezer van de gloeiende artikelen zou waarschijnlijk nooit hebben gecontroleerd.

Natuurlijk kweekt mediahype meer media-hype. Ikzelf heb toegegeven medeplichtig te zijn geweest aan verschillende mediahype, door meer aandacht te vragen voor mijn eigen werk aan AI en robotica. Maar uiteindelijk, terwijl hyping-technologie startups kan helpen (vooral als er een realiteit is die ten grondslag ligt aan de hype, wat altijd het geval is geweest met mijn eigen technologische publiciteitsinspanningen), zullen de grote bedrijven bijna altijd winnen vanwege hun ruimschoots bekostigde PR en marketingafdelingen.

Sommige kleine bedrijven raken de jackpot en worden grote bedrijven. Dit is geweldig en voorkomt dat het universum van grote bedrijven helemaal muf wordt. Maar toch, zodra een frisse en opwindende startup een megacorporatie wordt, wordt het bijna altijd geburiercratiseerd en gaat het lijken op de kolossen die het verdreef. De klassieke lijn van Pete Townshend ‘Ontmoet de nieuwe baas, net als de oude baas’, geldt net als in de politiek in de wereld van de techbedrijven.
Laten we pushen voor gratis, open en voordelige toepassingen van AI en AGI

De wereld is complex en snel aan het veranderen, en het is helemaal niet gemakkelijk om te voorspellen welke aspecten van de hedendaagse maatschappij achteraf positief, negatief, belachelijk of mooi zullen lijken. Alles bij elkaar genomen, lijkt het mij echter dat de kans op een positief resultaat voor de mensheid – en voor het creëren van transhuman AGI-geesten die positief zijn volgens de menselijke waarden – hoger zal zijn als we dingen kunnen stoten zodat geavanceerde AI-ontwikkeling niet mogelijk is zwaar gedomineerd door grote bedrijven.

Grote bedrijven maken deel uit van onze wereld en hebben veel bijgedragen en veel problemen veroorzaakt, en het is onvermijdelijk in de context dat ze een grote rol gaan spelen in de ontwikkeling van KI. Grote bedrijven kunnen bepaalde dingen echt, heel goed doen; en sommige van deze dingen zijn onmiskenbaar nuttig voor AI.

Grote bedrijven zijn echter niet goed in de wereldwijde inclusiviteit; noch op het vergroten van de eerlijkheid en het bestrijden van ongelijkheid in rijkdom; noch bij het bevorderen van creativiteit en verbeeldingskracht; noch om zorg te dragen voor de aarde of de menselijke psyche. Om deze doelen te bereiken, moeten we onze geavanceerde AI-ontwikkeling koppelen aan andere vormen van sociale organisatie.

De “vrije en open source” softwarebeweging van vandaag wijst in een veelbelovende richting – hoewel uiteraard de open sourcing van AI en AGI geen oplossing biedt voor de grote uitdagingen waar we voor staan.

Toepassingen van AI op domeinen met een dramatische positieve waarde, zoals medicijnen, onderwijs, ouderenzorg en wetenschappelijk onderzoek, wijzen ook duidelijk in de goede richting.

Ik ben toevallig persoonlijk bezig met dit soort projecten: een AI-gebaseerde biomedisch onderzoeker-assistent, een AI-gevoede leraaravatar voor Afrikaanse kinderen, en een AI-gevoede huisgezondheidsadviseur voor chronisch zieke Chinese ouderen. En ik kan het niet nalaten hier te vermelden het “Loving AI” project waar ik mee bezig ben, gericht op het creëren van robots en avatars die onvoorwaardelijke liefde naar de mens zullen tonen en uiteindelijk zullen voelen.

Maar mijn eigen specifieke projecten zijn hier niet het belangrijkste punt – het punt is dat als we de kansen op een radicaal positieve toekomst willen vergroten, we een groot percentage van de AI-inspanningen in de wereld willen hebben voor dit soort projecten, niet op het gebied van reclame of moord of spionage.

Ook zeer positief zijn initiatieven die zijn gericht op het plaatsen van geavanceerde AI op goedkope hardware die zowel in de zich ontwikkelende als in de ontwikkelde wereld kan worden gebruikt (zoals Raspberry Pi en andere ingebedde kaarten).

Over het algemeen lijkt het erop dat we, als het gaat om kortetermijnmaatregelen, als we algemeen gunstige resultaten voor de mens en andere geesteswetenschappen willen creëren, AGI en andere geavanceerde AI’s moeten ontwikkelen op een manier die

is open-source, en ook open-proces … d.w.z. open-source zoals Apache-projecten zijn in plaats van de manier waarop Tensorflow is
doet inspanningen om individuen uit alle delen van de wereld en elke sociaal-economische klasse en cultuur te betrekken bij het proces van ontwikkeling en inzet van AI
richt AI-ontwikkelingsenergie op toepassingen met een over het algemeen positieve waarde (in plaats van op toepassingen die gericht zijn op het differentieel verhogen van de rijkdom of status van relatief kleine groepen).

Deze houding betekent niet dat overheidsregulering geen plaats heeft. Maar het verzet zich tegen soorten overheidsregulering die uiteenlopende rechten geven voor de ontwikkeling van KI’s aan grote bedrijven met grote lobbyistenbudgetten en nauwe overheidsverbindingen.

We hebben geen AI nodig van de grote bedrijven, van de grote bedrijven en van de grote bedrijven. We hebben AI van de mensen nodig, door de mensen en voor de mensen. Dit is de beste manier om de kans te vergroten dat, aangezien mensen door AGI’s met gelijke en grotere intelligentie op de planeet worden verenigd, deze AGI’s zowel voor de mensen als voor de AGI’s zullen zijn.

 

 

Het origineel artickel vind je hier:

http://hplusmagazine.com/2017/07/21/corporatization-ai-major-threat-humanity/

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Google photo

Je reageert onder je Google account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

Verbinden met %s