Stig Erik Thoreby Jensen – Personlig Blogg og Profil

«Dine nåværende omstendigheter bestemmer ikke hvor du kan gå, de avgjør bare hvor du starter.»

Stig Erik Thoreby Jensen

Et biprodukt av en sivilisasjon i forfall.

«Dine nåværende omstendigheter bestemmer ikke hvor du kan gå, de avgjør bare hvor du starter.»

Et biprodukt av en sivilisasjon i forfall.

Microsoft kutter kritisk AI-etikk og samfunnsteam under masseoppsigelse: Eksperter bekymret for fremtiden for ansvarlig AI

Hele teamet ansvarlig for å sikre at Microsofts AI-produkter ble levert
med sikkerhetstiltak for å redusere sosiale skader, ble kuttet under
selskapets siste oppsigelse av 10 000 ansatte, ifølge Platformen.

Tidligere ansatte sa at etikk- og samfunnsteamet var en kritisk del av Microsofts
strategi for å redusere risikoer knyttet til bruk av OpenAI-teknologi i Microsoft-produkter.

Før teamet ble lagt ned, utviklet de et «ansvarlig innovasjonsverktøysett» for å
hjelpe Microsoft-ingeniører med å forutsi skader som kunne forårsakes av AI, og deretter redusere disse skadene.

Emily Bender, en ekspert ved University of Washington på beregningslingvistikk og
etiske spørsmål i naturlig språkbehandling, kritiserte Microsofts beslutning om å oppløse etikk- og samfunnsteamet.

Hun mener at beslutningen var «kortsiktig» og at enhver betydelig
reduksjon i menneskene som utfører arbeidet er skadelig.

Microsoft begynte å fokusere på team dedikert til å utforske
ansvarlig AI tilbake i 2017.

Innsatsen inkluderte etikk- og samfunnsteamet med en toppstørrelse
på 30 medlemmer i 2020.

Men da AI-kappløpet med Google intensiverte seg, begynte Microsoft å flytte
flertallet av etikk- og samfunnsteamets medlemmer til spesifikke produktteam i oktober i fjor.

Dette etterlot bare syv personer dedikert til å implementere teamets «ambisiøse planer».

Bender mener at Microsoft nå virker mindre interessert i å finansiere et team
dedikert til å fortelle selskapet å bremse når AI-modeller kan
innebære risiko, inkludert juridiske risikoer.

Hun argumenterer for at selvregulering ikke fungerer og at det må
være eksternt press for å investere i ansvarlige AI-team.

Bender anbefaler at brukere aldri aksepterer AI-medisinske råd,
juridiske råd, psykoterapi eller andre følsomme anvendelser av AI.

Hun ser det som svært kortsiktig, og mener at reguleringer må være på plass
for å sikre mer åpenhet om potensielle skader og bedre informasjonskompetanse blant brukere.

Kilder: https://arstechnica.com/tech-policy/2023/03/amid-bing-chat-controversy-microsoft-cut-an-ai-ethics-team-report-says/

Abonner på nyhetsbrevet?

Legg inn en kommentar