Stäng annons

Teknikområdet hotas av en rad faktorer. Användare fruktar till exempel skadlig programvara eller förlust av integritet. Men enligt inflytelserika personligheter inom teknikindustrin bör vi inte oroa oss så mycket för den mänskliga faktorn i sig, utan snarare dess koppling till artificiell intelligens. Vid årets World Economic Forum i Davos efterlyste chefer från ett antal stora teknikföretag lagreglering av branschen. Vilka är deras skäl för att göra det?

”Artificiell intelligens är en av de djupaste sakerna vi som mänsklighet arbetar med. Den har mer djup än eld eller elektricitet." sa VD:n för Alphabet Inc. i onsdags vid World Economic Forum. Sundar Pichai, tillade att regleringen av artificiell intelligens kräver ett globalt bearbetningsramverk. Microsoft-direktören Satya Nadella och IBM-direktören Ginni Rometty efterlyser också en standardisering av regler kring användningen av artificiell intelligens. Enligt Nadella är det idag, för mer än trettio år sedan, nödvändigt för USA, Kina och Europeiska unionen att fastställa regler som avgör artificiell intelligenss betydelse för vårt samhälle och för världen.

Försök från enskilda företag att upprätta egna etiska regler för artificiell intelligens har tidigare mött protester inte bara från de anställda i dessa företag. Till exempel fick Google 2018 dra sig ur det hemliga regeringsprogrammet Project Maven, som använde teknik för att analysera bilder från militära drönare, efter massiv motreaktion. Stefan Heumann från Berlin-baserade tankesmedjan Stiftung Neue Verantwortung, i relation till de etiska kontroverserna kring artificiell intelligens, säger att politiska organisationer bör sätta reglerna, inte företagen själva.

Den smarta högtalaren Google Home använder artificiell intelligens

Den nuvarande vågen av protester mot artificiell intelligens har en tydlig anledning till denna tajming. Om bara några veckor måste Europeiska unionen ändra sina planer för den relevanta lagstiftningen. Det kan till exempel handla om regelverk kring utveckling av artificiell intelligens inom så kallade högrisksektorer som sjukvård eller transport. Enligt de nya reglerna skulle företag till exempel inom ramen för transparens behöva dokumentera hur de bygger sina AI-system.

I samband med artificiell intelligens har flera skandaler redan dykt upp tidigare – en av dem är till exempel Cambridge Analytica-affären. I Amazon-företaget avlyssnade anställda användare genom den digitala assistenten Alexa och sommaren förra året utbröt en skandal igen på grund av att företaget Google – eller YouTube-plattformen – samlade in data från barn under tretton år utan föräldrarnas medgivande.

Medan vissa företag är tysta om detta ämne, enligt uttalandet från dess vicepresident Nicola Mendelsohn, har Facebook nyligen etablerat sina egna regler, liknande den europeiska GDPR-förordningen. Mendelsohn sa i ett uttalande att detta var resultatet av Facebooks push för global reglering. Keith Enright, som är ansvarig för integritet på Google, sa vid en nyligen genomförd konferens i Bryssel att företaget för närvarande letar efter sätt att minimera mängden användardata som behöver samlas in. "Men det utbredda populära påståendet är att företag som vårt försöker samla in så mycket data som möjligt," han sade vidare och tillade att det är riskabelt att hålla data som inte ger användarna något värde.

Tillsynsmyndigheterna verkar inte underskatta skyddet av användardata i alla fall. USA arbetar för närvarande med federal lagstiftning som liknar GDPR. Baserat på dem skulle företag behöva inhämta samtycke från sina kunder för att lämna sina uppgifter till tredje part.

Siri FB

källa: Direkt

.