Publicerad juli 18, 2023

Etiska frågor om AI som du bör tänka på som digitalt företag för att undvika problem

Att använda AI för att bolla idéer och att kopiera och klistra in AI-resultat för att helt automatisera din process för att skapa innehåll är inte samma sak. Här är etiska frågor om AI som du bör överväga ...

icon

Konversationen om artificiell intelligens (AI) är mättad, men har bara börjat. Vi bombarderas ständigt med nya AI-drivna verktyg och applikationer. Det kan vara svårt att hålla jämna steg med de senaste trenderna, och det är ännu svårare att veta vilka verktyg som är värda att använda.

Men en sak som jag har lärt mig är att AI inte är en magisk kula. Den kan inte göra allt åt oss. Den har etiska problem. Jag har aldrig fått något från GPT som jag stolt skulle återge ordagrant var som helst. Det är alltid en fråga om människa + teknik. AI kan hjälpa dig att generera idéer, men det är upp till dig att redigera och förfina dessa idéer.

Lägg därtill spekulationerna om att vissa AI-företag använder flera mindre GPT-modeller i stället för en enda stor GPT-modell för att spara resurser. Varje AI-modell tränas på olika datamängder, vilket väcker frågor om äganderätten till dessa data. AI-modellerna kommer att bli bättre ju mer data som används. Å andra sidan, ju mer data du har tillgång till, desto fler frågor om immateriella rättigheter och integritet.

Vi har alltså mycket att lära och måste vara medvetna om de etiska utmaningarna. Det är det vi diskuterar i den här artikeln.

Människa eller AI?

AI-genererad output tar över digitala företag, men hur mycket bör du oroa dig för etiska frågor kring AI?

Det första jag kommer att tänka på är att "göra innehållet till sitt eget".

Du måste fortfarande tänka på vad du skapar och inse att det finns en människa på andra sidan. Så var stolt över den kreativa processen, det är inte en "hands-off"-strategi helt och hållet.

Men varje gång jag har använt AI-system har jag haft etiska frågor i huvudet. När jag kontaktade andra människor hade de liknande dilemman.

Här är några av de förklarliga etiska frågorna med artificiell intelligens:

  1. Äganderätt till AI-genererat innehåll/kod.

    Om du använder ett AI-verktyg för att skriva ett blogginlägg eller en kod, vem äger då upphovsrätten till det? Är det du, verktygsleverantören eller någon annan?

    Ett bättre sätt att uttrycka det är att fråga sig vem som äger den "immateriella egendomen", där innehåll och kod är undergrupper.

  2. Alla data som du matar in i AI kan hjälpa dina konkurrenter.

    Om du använder AI-teknik för att generera data, kommer dessa data att användas för att träna andra AI-verktyg?

    Du kan till exempel lägga in företagsdata som kan vara till nytta för dina konkurrenter, proprietär källkod som bör hållas som en företagshemlighet eller marknadsföringspositionering/kampanjer som skulle gynna dina konkurrenter.

  3. Bli stämd för att ha använt AI-genererad output

    Det har förekommit fall där personer har blivit stämda för att ha använt resultat som genererats av AI. FYI, även världens största sökmotorföretag blir stämda.

  4. AI hjälper/skadar SEO.

    Vi undrar alla varför innehåll som skapats av människor kanske inte ens har en roll i framtiden. AI kan generera optimerat innehåll för sökmotorer. Men kommer detta att leda till en minskning av värdet på mänskligt skapat innehåll? Eller kommer AI och mänskligt skapat innehåll att komplettera varandra?

  5. Integritet, att dela information om ditt företag med AI.

    AI-verktyg behöver data för att träna och fungera. Vilken typ av data behöver de? Och hur kommer dessa data att användas? Vilka är konsekvenserna för integriteten av att dela data med AI-verktyg?

  6. Korrekthet.

    AI-verktyg och chatbottar är inte perfekta. De kommer att göra misstag. Vad händer när ett AI-verktyg genererar felaktigt innehåll? Vem är ansvarig för felaktigheterna? Hur håller man sig ansvarig i den verkliga världen?

  7. Förlorar jobb på grund av AI.

    Om du kan skapa 10 gånger mer innehåll med 10 % av resurserna, kommer ditt jobb som marknadsförare då att outsourcas till AI? Vad händer med mänskligt beslutsfattande? Hur blir det med mänskliga rättigheter?

  8. Minskat värde på innehåll.

    Om AI kan generera innehåll som inte går att skilja från innehåll som genererats av människor, kommer detta att minska värdet på innehållet? Kommer människor att vara mindre benägna att betala för innehåll om de kan få det gratis från ett AI-verktyg?

  9. AI-data kan vara partiska

    AI-verktyg är beroende av träningsdata för att kunna ge utdata. Det som data matar in är vad du får. Det är här det kan lära sig fördomar och stereotyper från träningsdata.

Det är uppenbart att generativ AI har problem

Generativ artificiell intelligens är inte alltid korrekt. Använd den inte som en enda källa till sanning, eftersom du inte vet att så är fallet. Och det vi matas med är det vi får.

Ett annat etiskt problem är att om du lägger in känslig företagsinformation i AI kommer verktygets moderbolag att ha tillgång till den. Det står dem fritt att använda informationen som de vill - och de kan utgå från att allt du lägger in kommer att vara offentligt tillgängligt.

Dela därför inte känsliga eller konfidentiella uppgifter utan vederbörligt tillstånd. Det är viktigt att se till att data som används för att träna Generative Al-modellen erhålls lagligt och med korrekt samtycke och inte bryter mot några lagar eller förordningar. De flesta offentliga G-Al-tjänster (t.ex. Chat-GPT) delar dock inte med sig av vilka datauppsättningar de tränar på. Så vi vet inte vem som egentligen äger resultatet.

Detta innebär också att vi inte kan verifiera i vilken utsträckning resultatet är partiskt. AI-fördomar är verkliga. Modeller lär sig fördomar och stereotyper från träningsdata. Den har funktionen att producera extremt övertygande osanningar. Lita aldrig på AI-genererat innehåll som en enda sanningskälla, särskilt inte i forskningssyfte. Även om du bara använder AI för att generera allt ditt innehåll ska du dela det med konsumenten.

AI-problem är inte svåra att räkna ut. Till exempel är ren AI-kopia full av ledtrådar om varför det inte är den bästa lösningen för dig. Listan innehåller bland annat

  • Långa utdragna stycken och kopior
  • Obehagligt formella toner och långa meningsbyggnader
  • Överanvändning av adjektiv och irrelevant personalisering
  • Fabricering av fakta baserat på vissa åsikter

Etik för AI

Till att börja med är det lämpligt att använda generativ AI med en licens som utfärdats av företaget. Det är viktigt ur ett ansvars- och egendomsperspektiv. Även då bör du aldrig kopiera och klistra in hela innehållet eller koden från AI. Redigera, modifiera och lägg alltid till något i AI-resultatet för att göra det unikt.

  • Dataskydd är nyckeln. Lita inte underförstått på alla utdata eftersom deras riktighet kan vara tveksam eller partisk, särskilt när det gäller artiklar och ämnen som ändras snabbt.
  • "Kopiera och klistra in" aldrig helt och hållet någon output från ett G-Al-verktyg. Du kan använda AI, men kom alltid ihåg att redigera och modifiera resultatet för att omvandla det till en ny idé.
  • AI är bra för att göra snabb forskning om ämnen eller studsa idéer från dem. Men använd det aldrig för att bevisa dina idéer och en enda sanningskälla. Det är inte alla som lägger till korrekt information.
  • Den mesta informationen är känslig data. Allt du lägger in kan bli tillgängligt för konkurrenter, kunder och potentiella kunder. Även den kod som genereras (inklusive känslig information om dina produkter) för din produkt kan användas av alla som har tillgång till verktyget.
  • Lägg inte in några företagskänsliga uppgifter eller uppgifter om intressenter. Om du gör det kommer finansiella uppgifter och hälsoinformation om ditt företag att vara allmänt tillgängliga. Andra kan komma åt och använda dem hur de vill. Att stoppa det kommer att vara utanför din juridiska kontroll.
  • Slutligen ska du aldrig dela några personuppgifter med ett AI-verktyg som ChatGPT. Detta inkluderar både din och dina kunders information inklusive namn, e-postadress, telefonnummer eller något annat som skulle betraktas som personaliserad information (PII).

Använda AI-verktyg, det dåliga eller det bra sättet

Valet är ditt när du sätter upp etiska principer och etiska standarder i din organisation. Men att be AI att skriva en text från grunden är inte lösningen.

Ett bättre sätt skulle vara att gräva fram all information du kan hitta om ett ämne. Kolla in företagets tidigare videor, dokument, bloggar, whitepapers, keynote-sessioner etc. och kombinera dem för att skapa en solid trådram. Skriv sedan några av avsnitten själv och be AI att utöka resten. Slutligen redigerar du hela texten till en ton av röst och lägger till rätt exempel + nyckelord.

Exemplen nedan hjälper dig att förstå skillnaden mellan bra och dålig användning av AI.

Här är några exempel på dålig användning av AI-verktyg.

  • Använda personaliserade licenser för att skapa innehåll till ett e-postmeddelande för e-postmarknadsföring > kopiera, klistra in och skicka utan någon granskning.
  • Delning av företagets finansiella data med AI-algoritmer.
  • Generera kod med AI och använda dem i dina produkter utan att göra några ändringar.

Här är några exempel på bra användning av AI-verktyg.

  • Använda en företagslicensierad version för att generera språk för e-post, granska språket och kraftigt modifiera det så att det blir ditt innan du skickar det.
  • Ta emot förslag för att göra dina algoritmer bättre utan att dela koden med ett AI-verktyg.
  • Bolla idéer för en ny kampanj och se hur många olika sätt den idén kan fungera för ditt företag.

Alla vet att AI har skrivit ditt innehåll

Bortsett från AI:s etiska problem, datasekretess och cybersäkerhetsfrågor är den största utmaningen med omätbar användning av AI och kopiering och klistring av utdata att det åtminstone för närvarande är ganska uppenbart när något skrivs av AI. Det är uppenbart för både datorläsare och mänskliga läsare.

Jag testade olika verktyg för innehållsdetektering, och de kunde enkelt identifiera alla utdata som jag använde direkt från ett AI-verktyg.

Varför spelar det någon roll?

Du kanske till exempel har börjat använda AI för att automatisera alla dina sekvenser med kall e-post. Outlook (ägs av Microsoft) och Gmail (ägs av Google) är två av de största leverantörerna av e-posttjänster och för att skydda sina kunder från skräppost har de och kommer de att börja markera AI-genererade e-postmeddelanden som skräppost. De kommer hela tiden att uppdatera sina funktioner för att upptäcka skräppost och även om din AI-e-post ser bra ut är den till ingen nytta om den inte når dina prospekts inkorgar.

Det här är bara en e-post. I takt med att AI-verktyg används som autonoma vapen ökar nätfiskeförsöken. Teknikjättar försöker skydda sina anställda från dessa attacker genom att blockera rent AI-genererade utgångar.

Fram till dess att den nya tekniken blir bättre är AI-kopior lätta att upptäcka eftersom de följer mönster. Och både människor och maskiner är bra på att identifiera mönster. Människor kommer att sluta uppmärksamma ditt innehåll om de tror att du inte lägger ner någon ansträngning och helt enkelt använder AI för att generera allt ditt innehåll via automatisering.

Att skala upp kvantiteten på bekostnad av kvaliteten kommer sannolikt att leda till fler förluster för dig och ditt företag. AI och maskininlärning är inte skurkar. Som ett teknikföretag använder vi AI här på Optimizely. Vi har till och med AI-funktioner i våra produkter och våra team har gjort mer innovation i det avseendet.

Men vi använder aldrig AI för att generera allt vårt innehåll. Vi tror att mänskligt tänkande och samarbete är en av de mest integrerade delarna av innehållssamarbete och beslutsfattarprocessen. Så använd AI för inspiration, ramverk, idéer till rubriker och sammanfattningar, men inte för att ersätta det faktiska arbetet.