Dreamforce 2019: Salesforce vill att etik ska bakas in i sin verksamhet

Dreamforce 2019: Salesforce vill att etik ska bakas in i sin verksamhet Salesforce integrerar etik och värderingar i dess användning av AI, dagliga beslutsprocesser och att få kontakt med kunder.

Vid Dreamforce 2019 i San Francisco talade TechRepublics Bill Detwiler med Salesforce Chief Ethical and Humane Use Officer Paula Goldman och Salesforce Architect of Ethical AI Kathy Baxter om de metoder Salesforce använder för att lägga till värden och etik i teknikanvändning och vardagliga affärsmetoder. Följande är ett redigerat utskrift av intervjun.

Bill Detwiler: En stor del av vad företag försöker göra idag för att locka högsta talang, att engagera sig med kunder, vad de förväntar sig, är att införliva etik och värderingar i sina affärsmetoder dagligen. Det gläder mig att vara här med två personer för att prata om hur Salesforce gör det och jag låter dem presentera sig.

Paula Goldman: Jag är Paula Goldman och jag är chef för etiska och humana användningsområden på Salesforce. Detta är, tror vi, en förstklassig position, och det handlar verkligen om att titta över alla våra teknikprodukter och se till att vi bakar etik på det sätt de är designade och hur de lever i världen.

Vi har ett antal riktigt spännande processer som vi har utvecklat, och erkänner att vi befinner oss på en kritisk tid inom teknikindustrin, att teknikindustrin i allt högre grad är under eld och att människor förstår teknikens inverkan på vardagen. Så vi arbetar med, över våra teknik- och produktteam, för att integrera etik i det dagliga beslutet.

Vi har också ett rådgivningsråd för etiskt bruk, och det rådgivande rådet har anställda och chefer och externa experter och inom det har vi frågor som tas upp när det gäller hur vår teknik används i världen och vi har en policyprocess för att säkerställa att vår teknik används till största möjliga nytta.

Anställningssats: Salesforce Developer (TechRepublic Premium)

Bill Detwiler: Och Kathy, vi pratade lite innan intervjun började om någon av tekniken, eller någon av de metoder som går ut på att göra det, och du gav mig några exempel. Först presentera dig själv för tittarna och berätta lite om den tekniken.

Kathy Baxter: Jag är Kathy Baxter och är arkitekt för etisk AI. Det finns många olika saker som vi gör när vi funderar på baketik. Förutom Ethics Advisory Council har vi en datavetenskaplig granskning, så eftersom team arbetar med modeller kan de komma in och få feedback på dessa modeller, inte bara ur kvalitetssynpunkt, utan också ur etisk synvinkel. Vi har specifika funktioner i våra Einstein-produkter som hjälper våra kunder att identifiera: Är utbildnings- och utvärderingsdata representativa? Är modellerna partiska? Så det ger dem verktygen för att hjälpa dem att använda vår Einstein AI på ett ansvarsfullt sätt. Och jag tror att ett av exemplen på hur vi verkligen har bakat etiska överväganden i en specifik produkt är vår AI for Good-produkt som kallas en SharkEye.

Det är ett riktigt fantastiskt projekt med Benioff Oceans Institute och UC, San Diego för att studera hajar. Stora vita hajar kommer till nordamerikanska kusten i större antal under längre tid, och vi måste studera dem och ta reda på vad klimatförändringarnas inverkan har på dem. Hur skapar vi verktyg som hjälper människor och hajar att dela havet på ett säkert sätt?

De etiska utmaningarna med AI: En ledarguide (gratis PDF)

Så vi kombinerade vår Field Service Live-produkt med vår Einstein Vision Project-produkt för att kunna spåra hajarna i realtid och meddela livräddare när de behöver stänga stranden. Jag tror att många kanske antar att den här typen av AI for Good-projekt inte har etiska risker, men de faktiskt gör det. Alla typer av teknik kan få oavsiktliga konsekvenser.

Vi tillbringade mycket tid på att tänka på vad som kan vara några av dem. Vi ville skydda medborgarnas integritet ute på stranden. Använda drönsteknologi för att spåra hajarna - inspelningen börjar inte förrän den är över havet. Vi har aldrig tränat Einstein Vision på människor, så det är bara tränat att spåra de stora vita hajarna.

Dessutom ser vi till att det endast är certifierade droneoperatörer som är anställda av Benioff Oceans Initiative, så att vi inte behöver oroa oss för att en hel massa människor kommer ut på stranden med drönare och avbryter upplevelsen eller använder informationen för att jaga hajar eller på något sätt skada hajarna. Det finns många överväganden som gjordes för att se till att det vi skapade skulle skydda både hajarna och medborgarna.

Bill Detwiler: Paula, det är så viktigt när du tänker på de oavsiktliga konsekvenserna eftersom du pratar om en hel del teknikföretag, det var att samla in all information vi kan och sedan ska vi ta reda på hur du kan skydda det eller vad vi ska göra med det senare .

Vad som görs är uppfödda mycket, kan du säga fiendskap, kanske misstro, på kundnivå, på individnivå. Hur adresserar du den Paula? Ur ett företagsperspektiv - hur går du tillbaka till företaget eller till kunderna och säger: "Vi vet att du har dessa problem, men här kommer vi att hantera dem."

Paula Goldman: Jag tror att den viktigaste frågan du ställde är, hur tänker vi på oväntade konsekvenser? Och det är den viktigaste frågan för teknikindustrin just nu. Det är en enkel fråga som kan ha djupa konsekvenser för de produkter vi designar. Jag säger att vi nyligen har experimenterat med ett antal metodologier med våra teknik- och produktteam på det. Vi har kört några workshops som heter Consequence Scanning där vi sätter oss ned med ett tvärfunktionellt produktgrupp och säger: "Okej, du kommer att bygga den här funktionen, vilka är de förväntade konsekvenserna och vilka är de oväntade konsekvenserna?"

Det låter superenkelt, men du börjar se glödlampan släcka, och folk tänker som: "Åh, wow, jag hade inte tänkt på den möjliga riktningen. Låt oss bygga denna typ av funktion för att hjälpa våra produkter att använda den på ett ansvarsfullt sätt och hjälpa våra kunder att använda den på ett ansvarsfullt sätt. ' Jag tror det du hörde Kathy prata om. Det finns ett antal funktioner som kommer ut i våra AI-produkter som hjälper människor att förstå varför de får de förutsägelser de får. Hur kan de se till att de lätt kan göra det valet när de till exempel inte använder sätt som en faktor i beslutsfattandet? Det är de typer av differentierare som jag tror börjar skilja på Salesforce-produkten eftersom vi ställer oss dessa frågor tidigt i processen.

Bill Detwiler: Så från ett tekniskt perspektiv talade Kathy om lagen som du har satt samman när du utformar en ny produkt, en ny tjänst som hjälper dig att tänka igenom några av dessa medvetslösa fördomar eller de oavsiktliga konsekvenserna som kan komma ut av det. Hur tar vi upp det ur ett tekniskt perspektiv? Du pratade om det med Einstein och AI och så beslutet du fattade att inte träna Einstein på människor och bara ha det fokuserat på hajar. Vad kan vi göra mer från ett tekniskt perspektiv för att lösa problemet?

Kathy Baxter: Vi har en lysande forskare vid namn Nazneen, vars expertis är att förklara AI och identifiera bias i modeller. Vi vet att pålitlig AI måste vara ansvarsfull, ansvarsskyldig, öppen, stärkande och inkluderande. Förklarbarheten för vad en modell gör berör så många av dessa saker eftersom du kan se varför AI gör rekommendationen att den gör. Vilka är de faktorer som ingår? Vem är de individer som utesluts och som ingår? Får någon en fördel gentemot någon annan?

Att kunna förstå om det AI fattar inkluderande beslut genom att vara transparent - då kan du hålla det ansvarigt. Dessa saker är alla utbytbara med varandra, och det är där det är verkligen viktigt att tänka redan från början, från uppfattningen av funktionen, från uppfattningen av modellen, från insamlingen av data.

Om du har fått en chans att se forskningsnyckeln på tisdag, var det en demonstration av vår röstassistent, och vi är verkligen stolta eftersom vi lägger en enorm mängd ansträngningar för att få representativa utbildningsdata för det mellan olika kön, som samt engelska med ett dussin olika accenter. Så engelska med en tysk accent, med en fransk accent, så att den är så inkluderande som möjligt. Det fungerar för så många människor som möjligt. Dessa är alla de olika besluten på alla punkter på det sätt som vi behöver för att se till att vi investerar i.

Paula Goldman: Jag tror att jämlikhet är ett kärnvärde för Salesforce och jag tror att det är kärnfrågan för teknisk etik. I slutet av dagen, gör teknik världen till en mer jämlik plats eller en mindre jämlik plats? Och vi ställer oss själva den frågan varje dag. Vi frågar oss, vem är vid bordet som fattar dessa beslut? Hur säkerställer vi att oavsett om det är träningsdata eller ett politiskt beslut, hur ser vi till att vi är inkluderande i det beslutet?

Bill Detwiler: Och det här är en lite tuffare fråga och vi såg Marc Benioff ta itu med lite av detta vid grundtonen häromdagen . Hur hanterar du som företag i allmänhet, inte Salesforce bara specifikt, de otaliga etiska positioner som olika kunder eller olika människor i samhället faktiskt har?

Vi har alla olika förväntningar och erfarenheter och olika åsikter om saker. Som en komplett sidelinje undervisar jag faktiskt som adjungerad professor, och en av de klasser jag undervisar är etik för branschfolk. En av de saker som jag alltid pratar om är att bygga de etiska ramarna. Min publik och mina studenter är vanligtvis brottmänniskor för straffrättsliga rättigheter, höjdpunkter för allmän säkerhet. Så för dem har det verkliga livs- och dödskonsekvenser.

Men du har inte sett så mycket i företagsvärlden. Så jag är verkligen intresserad av hur du hanterar vad en person anser som etisk, en annan person inte. Hur adresserar du det inom Salesforce kanske, och hur tycker du att företag ska ta itu med det bredare?

Paula Goldman: Så det är en riktigt viktig fråga, och jag kommer att säga att vi närmar oss detta också med en anda av ödmjukhet. Vi låtsas inte ha alla svar, men en sak som är väldigt viktigt är att vi lyssnar mycket aktivt och medvetet. Jag är utbildad som antropolog. Jag har en doktorsexamen i antropologi, och sedan är det kärnkompetensen att verkligen kunna förstå olika världsbilder och integrera dem tillsammans.

Det är därför vi har rådet, det är därför vi ständigt pratar med medlemmar i det civila samhället, aktivister, regeringsanställda, skapar så många kanaler för röst och för människor att känna sig bekväma att uttrycka en oro eller syn.

Den andra saken som jag kommer att säga är att det är väldigt viktigt, detta är värden som drivs. Så vi har en uppsättning värden som företag. Från det härledde vi en uppsättning principer. Vi undersökte faktiskt alla våra anställda och sa: "Vad borde vara de viktigaste principerna för etisk användning?" Och i den rangordning som de berättade införlivade vi det i vår beslutsprocess. Så det handlar verkligen om brett lyssnande och värdebaserat beslutsfattande för företag.

Bill Detwiler: Något du vill lägga till det, Kathy?

Kathy Baxter: Ja, jag skulle säga att jag tänker när jag kontaktar kunder och de frågar om vi ville skapa en etisk AI-process, hur börjar vi? Vi säger alltid, "börja med dina värderingar." Jag skulle bli förvånad över att hitta ett företag eller en organisation som inte har någon form av uttalande, något slags värderingar som de bygger på. Och det är det ramverk du bygger på, och sedan kan du börja skapa en översikt över prioriteringsramar. Vilka är de saker som vi vill se till att vi fokuserar på att ge tillbaka till samhället eller fokusera på att bygga? Det är de saker vi vill fokusera på.

Och vad är det som antingen är de röda linjerna, vi kommer inte att göra dessa saker eller så är de bara lägre prioriterade? Genom att ha det så kan du verkligen hjälpa till att fokusera beslutsfattandet så att när ett team kommer med en bra idé som "Åh, låt oss göra en funktion som gör X." Eller frågar en kund: "Kan du bygga en funktion som gör Y?" Du har den ramen för att fatta det beslutet och säga, "Ja, det passar helt in i våra värderingar. Detta är en av våra prioriteringar, eller "Detta är inte en av våra prioriteringar. Vi har beslutat att vi inte kommer att investera våra resurser i det här området, så vi kommer inte att gå in i det specifika området. ' Det hjälper verkligen att ha det dokumenterat och alla är riktigt tydliga om det.

Bill Detwiler: Är det verkligen utmaningen? När du har en stor organisation, tiotusentals, hundratusentals anställda, hur hanterar du det pushback som du kan få internt från, "Hej, med den här nya funktionen, den här nya produkten, tror vi att det finns en riktigt stor marknad för oss. Vi tror att detta är ett vinstcentrum. Vi tycker att detta är en stor inkomstmöjlighet. ' Och som Marc har sagt, vi behöver en ny form av kapitalism till viss del. Vi måste ta hänsyn till faktorer bredvid ren vinst. Hur hanterar du den pushbacken i ett privat kommersiellt företag?

Paula Goldman: Jag tycker att det är en rättvis fråga och jag vill inte minimera komplexiteten i det, men vad jag kommer att säga är att det här handlar om förtroende. I slutet av dagen tror vi verkligen att ju mer vi integrerar etik i vår produktutveckling, desto mer gynnar det förtroendet mellan oss och våra kunder och förtroendet mellan våra kunder och deras kunder. Alla är oroliga för var tekniken går, och om vi kan hjälpa människor med lämpliga skyddsskenor, tror jag att det blir en win-win. Och det är därför jag är så optimistisk vad vi gör.

Kathy Baxter: Eftersom vi är en plattform finns det så mycket flexibilitet med den plattformen. Med våra verktyg kan vi till exempel lyfta flaggor. Med Einstein Discovery, tillåter vi dig att checka in vad vi kallar skydda vissa fält som du inte vill använda i en modell, ålder, ras, kön. Sedan hittar vi andra fält i din datauppsättning som är mycket korrelerade med det.

Så vi säger: 'Åh, postnummer är mycket korrelerad med ras. Vill du också skydda det? ' Vi kommer inte att göra det för dem, vi ger kunderna kontrollen. Det handlar om att ge kunderna verktyg för att fatta utbildade beslut för sig själva så att de använder verktyg på ett sätt som också matchar deras värderingar.

Executive Briefing Nyhetsbrev

Upptäck hemligheten för IT-ledarskapssucces med dessa tips om projektledning, budgetar och hantering av dagliga utmaningar. Levereras tisdagar och torsdagar

Registrera dig idag

© Copyright 2020 | mobilegn.com