Argumentation kring AI
Hej
Vi kommer att skriva ett prov på svenskan där man ska antigen vara för eller emot AI. Jag har hittat några argument som visar att AI är bra ( jag är för) Något är att AI kommer att hjälpa oss inom sjukvården och underlätta operationer samt att det kan kosta mindre för stora operationer då de e en robot som jobbar.
Jag har andra argument att Ai underlättar vårt liv men tycker inte den är tillräckligt bra. Kan ni hjälpa mig med några idéer kring vad jag kan skriva om som fördel med AI.
Vilka är dina andra argument? Det är svårt för oss att hjälpa dig om vi inte vet vad du har. Generellt sett är det svårt att argumentera kring just AI, eftersom det är så brett. Att vara för eller emot AI är lite som att för trettio år sedan vara för eller emot datorer.
HAL 9000 är AI, Alexa/Siri/Google Assistant är AI, ett datorprogram på posten som analyserar handskrivna siffror är AI, det går att hävda att moderna sökfunktioner är AI.
Kommer textbearbetnings-AI att ta över världen? Knappast. Finns det risk att våra försök att skapa självständiga, självmedveten AI kan bli vår död? Ja.
Men argumenten för AI i mindre riskabel skala är många:
- Självkörande bilar skulle kunna minska miljöpåverkan genom att köra mer effektivt än människor kan, och även minska risken för olyckor
- AI inom jordbruk skulle kunna minska mängden gödsel och bevattning som behövs genom att anpassa användningen av gödsel och vatten till vardera litet jordbruksområde
Som någon som läser civ.ingenjör i informationsteknik (IT) så håller jag med Smutstvätt om att AI är brett, det är nästan som att det är "överallt". Den finns bl.a. i mobiler, spel och i sociala medier som TikTok.
En av AIs användning i framförallt sociala medier är att den kan lära sig in användarens vanor och sedan hitta innehåll som den tror att användaren kommer tycka om. Den ger en personlig användarupplevelse, vilket är både bra för själva användaren och skaparen av det sociala mediet.
En av mina argument är att AI gör vårt liv mycket enklare, tex när man kör bil ska man bara till alexa att ringa någon eller boka tid och mycket mer. Man kan säga till alexa att sätta på ugnen eller börja dammsuga huset så att man spendera tid med barnen och göra annat. Men denna argument tycker jag är dålig och svag.
Jag sökte lite mer kring dina argument och tror de är starkare än de jag hade från början. Men nu tänker jag på ett mot argument och den är att vissa hävdar att robotar kommer ta över världen i framtiden och de kan lätta styra över oss. Jag tänkte besvara den med att robotar inte har känslor och gör bara så som vi har programmerad dem, samt att med vilket syfte skulle de döda oss. Tänker jag rätt?
Alan11 skrev:En av mina argument är att AI gör vårt liv mycket enklare, tex när man kör bil ska man bara till alexa att ringa någon eller boka tid och mycket mer. Man kan säga till alexa att sätta på ugnen eller börja dammsuga huset så att man spendera tid med barnen och göra annat. Men denna argument tycker jag är dålig och svag.
Det är inte alls ett svagt argument, tvärtom. Automatisering har historiskt utvecklats för att människor ska slippa göra sysslor och få mer tid till annat. Men argumentet behöver utvecklas inom pathosaspekten. Var tydlig med hur mycket bättre livet skulle vara med AI än det är idag. Hur mycket enklare olika aktiviteter skulle kunna vara, och vad mottagaren skulle kunna göra med tiden istället, som att exempelvis spendera tid med sina barn, som du skriver.
Jag sökte lite mer kring dina argument och tror de är starkare än de jag hade från början. Men nu tänker jag på ett mot argument och den är att vissa hävdar att robotar kommer ta över världen i framtiden och de kan lätta styra över oss.
Detta är ett klassiskt problem som ofta nämns gällande AI, men det är ett svårattackerat sådant. Mycket av det som vi ser som AI – Google Assistant / Alexa / Siri, bildanalysprogram, sökalgoritmer, med flera – står helt utanför problemet. Alexa kommer inte vakna upp en morgon och börja köra bilar in i bergväggar (åtminstone inte med "uppsåt"). Problemet med att artificiell intelligens skulle kunna bli ond är framförallt relevant i fråga om våra försök att bygga mänskligt medvetande och förbättringsförmåga in i ett datorprogram. Att utveckla exempelvis en digital assistent som bättre förstår mänskligt språk är inte en sådan teknologi.
Jag tänkte besvara den med att robotar inte har känslor och gör bara så som vi har programmerad dem, samt att med vilket syfte skulle de döda oss. Tänker jag rätt?
Detta är inte helt korrekt. I allmänhet ses AI ofta som enbart maskininlärning, men AI är mycket mer än så, men maskininlärning och deep learning är det område som i störst utsträckning brukar göra människor obekväma, och där programmerar vi inte robotar med AI. Vi bygger robotar utan AI, som bygger robotar med AI. Det finns ingen människa som för hand skulle kunna designa ens ett litet neuronnät och få det att fungera ens någorlunda bra. När det gäller maskininlärning behövs enorma mängder träningsdata, och beroende på vilken träningsdata som matas in kan slutresultatet bli ytterst problematiskt (ett exempel är Microsofts twitter-bot Tay).
Det kan även vara svårt att säga varför någonting går snett i den algoritm som skapas. Ett exempel är Amazons rekryterings-AI, som visat sig föredra manliga ansökande framför kvinnliga. Vi kan gissa att det beror på att träningsdatan innehöll främst ansökningar från män, men om vi sluter oss till att det är anledningen, hur fixar vi det? Vilka av alla miljontals parametrar ska vi ändra på, och hur, för att få ett icke-diskriminerande urval? Autentisk träningsdata växer inte på träd, och till viss del kan nog ett sådant problem antas upprätthålla sig självt.
Vi provar ett extremt exempel: En rekryterings-AI får in ansökningar med 50% män och 50% kvinnor. Den väljer ut 50 procent av männen, och 30 procent av kvinnorna (enbart beroende av kön). Då kvarstår 25 procent av de manliga ansökande, och 15 procent av de kvinnliga sökande. Vi antar sedan naivt att de mänskliga rekryterarna väljer ut tio procent av de sökande enbart baserat på meriter. Då kvarstår 2,5% av männen, och 1,5% av kvinnorna. När vi sedan ger denna data tillbaka till algoritmen för att den ska få lära sig mer om vad rekryterarna vill ha, får AI:n veta att rekryterarna, som gjort ett helt meritbaserat urval, inte letar efter kvinnliga rekryter i lika stor utsträckning som manliga, och då blir nästa urval fortsatt sexistiskt, trots att människorna valt helt utefter meriter (sedan kan vi lägga på mänskliga fördomar och sneda urval, men det är inte maskiners fel).
Om vi har så stora problem med något så trivialt som att göra en första filtrering av jobbansökningar, hur kan vi säga att en självmedveten AI inte kommer att vara full av problem? En självmedveten och självutvecklande AI som har som mål att lösa klimatkrisen kanske bestämmer sig för att göra sig av med alla människor, och ärligt talat, skulle den ha fel i den bedömningen?
Det finns många andra problem med AI, som gäller mer än bara den självmedvetna, självutvecklade delen, exempelvis:
- Undermålig träningsdata (som redan nämnts)
- Privatliv – vill vi verkligen ha en mikrofon i sovrummet?
- Miljöpåverkan och teknikskräp
- Inkomstskillnader