Intervju med vår nya Chief AI Officer
David Holmlund är vår nya Chief AI Officer och i denna intervju delar han med sig av sina erfarenheter och visioner.
Vad innebär din roll som Chief AI Officer?
Som Chief AI Officer leder och övervakar jag implementeringen av AI-teknik och strategier inom Digitalist. I nära samarbete med mina kollegor identifierar och prioriterar jag möjligheter med AI och säkerställer att vi alltid följer lagar och etiska riktlinjer. Jag behöver också hålla mig uppdaterad på de senaste trenderna inom AI samt arbeta långsiktigt för att främja en AI-kultur som är i linje med våra värderingar. För att säkerställa att vi når resultat med våra AI-initiativ så etablerar jag KPI:er i samarbete med ledningsgruppen och övervakar dessa löpande. Dessutom arbetar jag kontinuerligt med att utbilda och stödja våra medarbetare i att anamma AI i sina arbetsprocesser.
Varför behövs en sådan roll på Digitalist?
Den behövs eftersom AI-tekniken snabbt förändrar det digitala landskapet och skapar fantastiska möjligheter att förbättra våra tjänster, effektivisera processer och utveckla nya produkter. Jag ser min roll som en dedikerad expert inom AI som kan hjälpa Digitalist att använda dessa tekniker på ett ansvarsfullt och effektivt sätt, så att vi kan fortsätta vara konkurrenskraftiga i en bransch som ständigt utvecklas. Vi ser AI som en ny kollega som kan komplettera våra befintliga team och processer, till exempel genom att agera som parprogrammerare, uppslagsverk och bollplank.
Självklart ställer detta också stora krav på att vi förstår när det är lämpligt att använda dessa verktyg och att AI aldrig kan ersätta det mänskliga omdömet och fingertoppskänslan. En viktig del av rollen är därför att säkerställa att vi använder AI på ett ansvarsfullt sätt och att vi utbildar våra medarbetare för att förstå dess fulla potential och begränsningar.
Berätta om din bakgrund inom AI!
Mitt intresse för AI började redan på 90-talet, och sedan dess har jag kontinuerligt följt utvecklingen inom området. Min arbetsbakgrund består av många års arbete som utvecklare, Scrum Master och på senare år, lösningsarkitekt med fokus på frikopplad (decoupled) arkitektur. Genom åren har jag på olika sätt haft möjligheten att arbeta med maskininlärning och andra AI-implementeringar i olika projekt. Dessutom har jag även utbildning och kompetens inom kognitionsvetenskap och psykologi.
Med de praktiska genombrott som skett nyligen tack vare produkter som ChatGPT och Midjourney så har AI blivit alltmer relevant och mitt fokus allt starkare. På grund av detta har jag också börjat komplettera min tidigare utbildning inom AI för att hålla mig uppdaterad om de senaste rönen och teknikerna. Utöver den strategiska aspekten arbetar jag även experimentellt med praktisk tillämpning, både genom att använda lösningar baserade på öppen källkod som exempelvis Alpaca, och genom att använda proprietära API:er såsom OpenAI.
Har du några tips till andra företag och organisationer om hur man ska hantera AI-verktygens möjligheter och etiska konsekvenser?
Jag tror att det är viktigt att först och främst utbilda sig, skapa en tydlig AI-strategi, säkerställa att dataskydd och etiska riktlinjer följs genom tydliga policies samt att involvera alla anställda i AI-initiativen så att de själva kan hitta relevanta användningsområden. Det är också viktigt att kontinuerligt utvärdera och revidera sina AI-strategier och verktyg för att säkerställa att de är effektiva och framför allt ansvarsfulla och säkra. Var inte rädda att ta hjälp om kompetensen saknas internt.
Vilka är de största hoten med AI?
De största hoten i närtid med AI är bland annat stora neddragningar på arbetsmarknaden på grund av automatisering, informationspåverkan, bedrägerier och "deepfakes", diskriminering och partiskhet i träningsdata och algoritmer, samt potentiella säkerhetsrisker som IT-attacker och andra missbruk av tekniken för skadliga ändamål. Det är viktigt att hantera dessa risker genom att införa etiska riktlinjer, skydda känslig data och säkerställa att AI-verktyg används på ett ansvarsfullt och rättvist sätt. Forskning om risker och konsekvenser av AI är ytterligare ett viktigt område för att möta riskerna. Vi måste förstås skilja på hur AI kan komma att påverka mänskligheten i stort och hur det påverkar oss som bolag men i förlängningen är det något som hela samhället behöver ta ställning till.
Kommer AI påverka jobben på Digitalist och leda till nedskärningar?
Nej, vi ser inte AI som något som ska ersätta medarbetare utan som ett verktyg som kan göra oss mer effektiva, frigöra tid till att vara innovativa och göra de saker som vi människor gör bäst. Med det sagt så tror jag att det är viktigt för alla människor att få en förståelse för AI och hur det kan komma att påverka ens vardag och arbetsliv. I takt med att AI blir allt mer integrerat i våra liv så blir det en allt viktigare förmåga att ha i sin verktygslåda. Sett i ett större sammanhang och på sikt så kommer dock AI tveklöst ha en stor påverkan på arbetsmarknaden.
Kommer AI att utrota mänskligheten?
Även om tanken kan verka avlägsen och det kan låta som science fiction så är det viktigt att ta långsiktiga risker på allvar och arbeta proaktivt för att undvika ett katastrofalt utfall. Vi måste vara medvetna om att när AI-tekniken blir allt mer kraftfull så minskar också marginalerna för misstag som kan leda till allvarliga konsekvenser. AI-alignment är en mycket svår nöt att knäcka och något förenklat så handlar det om att säkerställa att uppsatta mål faktiskt leder till avsedda konsekvenser och inget oförutsett. Här ligger tyvärr forskningen efter då relativt lite resurser läggs på att förstå och hantera de risker, konsekvenser och utmaningar som är förknippade med utveckling och användning av AI-teknik. Genom att på bred front arbeta tillsammans för att skapa en säker och rättvis användning av AI kan vi förhoppningsvis möjliggöra så att tekniken tjänar oss och samhället på ett positivt och hållbart sätt. Ett bra första steg är att lära sig mer och aktivt följa utvecklingen.