A Deloitte felmérése szerint a fogyasztók 76%-a aggódik a mesterséges intelligencia által generált félrevezető információk miatt, és több mint 50%-uk nem képes megkülönböztetni az AI és az ember által előállított tartalmakat. Az üzleti szektorban szintén bizonytalanság uralkodik: a munkavállalók mintegy 60%-a nem tudja, hogy a vállalat által alkalmazott AI rendszereknek vannak-e etikai szabványai.
De kinek a feladata a folyamatosan fejlődő technológia szabályozása, és milyen megválaszolatlan etikai kérdések merülnek fel ennek kapcsán?

Etikai kérdések a mesterséges intelligencia működésével kapcsolatban

Az AI jelentős előnyöket kínál az üzleti szektorban, ugyanakkor reprodukálja a társadalmi előítéleteinket, a diszkriminációt, táplálva ezzel az alapvető emberi jogok megsértését. Annak érdekében, hogy elkerüljük a tudományos-fantasztikus katasztrófa szcenáriókat, ki kell dolgoznunk azokat az etikai rendszereket, amelyek képesek kezelhetővé tenni a változásokat.
Több etikai kérdés is felmerül, ami a diszkrimináció, az adatvédelem és az autonóm döntéshozatal területét érintik.

Diszkrimináció: a mesterséges intelligencia gyakran hoz vitatható döntéseket, amikor bizonyos személyeket vagy csoportokat például hovatartozás, anyagi helyzet vagy iskolázottság alapján hátrányos helyzetbe hoz, vagy nem egyforma bánásmódban részesít. Gondolhatunk itt egy hitelminősítésre vagy büntetőjogi kérdésre. Ezt nevezzük digitális diszkriminációnak. A Midjourney és a DALL-E szöveg- és képalkotó modellekben is észrevettek már sztereotip elfogultságokat.

Adatvédelem: ennek kapcsán a legnagyobb probléma az AI technológiai tulajdonságából ered, hiszen hatékony működéséhez rengeteg adat szükséges, melyeket nem csak elemez és feldolgoz, hanem tárol is. Minél több adat áll rendelkezésre, annál gyorsabban és pontosabban tanul a mesterséges intelligencia. A legaggasztóbb kérdés az, hogy ezek milyen jellegű adatok? Sajnos gyakran nem általános információkról beszélhetünk, hanem szenzitív adatokról. Ennek megadásáról a felhasználók nyilatkoznak, ugyanakkor nincsenek ennek tudatában és/vagy nem ismerik az adatfelhasználás körét. A megoldás az lenne, ha az AI rendszerek csak a legszükségesebb adatokhoz férhetnének hozzá, minél rövidebb idejű tárolással. Ezt nehezítik az arc és hangfelismerő szoftverek, melyek ugyan hasznosak például a bűnüldözésben, azonban komoly adatvédelmi aggályokat vetnek fel. Továbbá egyszerű, laikusok számára is könnyen befogadható ismertető anyagok szükségesek, hogy a felhasználók tudatosabb digitális szemléletmódot kövessenek.

Autonóm döntéshozatal: a mesterséges intelligencia képes önálló döntéseket hozni, anélkül, hogy azt egy ember validálná. A nehézség az, hogy az ebből fakadó esetleges tévedésekért, károkért nem világos, hogy kit vonhatunk felelősségre.

AI etikai kérdések és nehézségek az üzleti szektor vonatkozásában

Amikor az AI döntést hoz, legyen annak pozitív vagy negatív következménye, a vállalatoknak felelősséget kell vállalniuk. Több kockázatot is figyelembe kell venniük. Egyrészt azt, hogy a mesterséges intelligencia mérlegeli-e azt, hogy a döntésével milyen hatással bír a munkavállalókra, beszállítókra, ügyfelekre és a társadalom egészére. Másrészt pedig, hogy az AI rendszerekbe táplált adatok manipuláltak-e.

A Colorado Egyetem professzora szerint az emberekben van egy úgynevezett ,,automatizációs elfogultság”. Véleménye szerint gyakran jobban bízunk a gépekben, mint az emberekben, és nincs meg az a technikai és gyakorlati képességünk, hogy el tudjuk dönteni, hogy kire vagy mire támaszkodhatunk bizonyos kérdésekben. A megoldás egy olyan átlátható, szervezeten belül mindenki számára elérhető dokumentáció lenne, amiben egyértelműen összefoglalják az elérni kívánt eredményeket és az AI-ba felvitt adatok típusát.

A Stylers Group egy alapítója, Gönczy Gábor is megosztotta véleményét a téma kapcsán:

,,Ha a vállalatok nem körültekintőek az etikai problémák kezelésében az AI projektek során, akkor sok időt és pénzt pazarolnak olyan szoftverek fejlesztésére, amit túl rizikós használni és eladni.”

Az ellenőrizetlen mesterséges intelligencia rendszerek ronthatják a vállalatok hírnevét, különösen azok, melyeket ügyfelek használnak. Ennek elkerülése érdekében fel kell tenni a következő kérdéseket: milyen etikai kockázatokat rejthet egy új technológia bevezetése, aminek implementálása elkerülhetetlen? Hogyan lehet ezeket a pontokat könnyen azonosítani és kiküszöbölni? Mekkora bírságot kellene fizetnünk az okozott károkért és mennyit kellene arra költeni, hogy az ügyfélbizalmat visszaállítsuk?

Ezért különösen fontos a tudatosság, nem elég magát az eszközhasználatot elsajátítani. A Styles Academy üzleti AI képzéssorozatában éppen ezért a szemléletformálásra is hangsúlyt fektetnünk.

Mi történt eddig az AI szabályozásával kapcsolatban, és kinek a feladata erről dönteni?

A magán- és közszférában nem csak az AI jövőbeli irányainak tárgyalása van a központban, hanem arról is komoly viták zajlanak, hogy ki dönthet a technológia szabályozásáról, és ki vonható felelősségre annak döntései kapcsán.

Az ideális az lenne, ha a felelősség megoszlana azok között a szereplők között, akik hozzájárulnak a technológia biztonságos és etikus használatához. Ebben az összefüggésben a kormányzatok, a nemzetközi szervezetek, az iparági szövetségek, a kutatóintézetek és a magánvállalatok mind fontos szerepet játszanak. Az egyes szereplők feladatai és hatáskörei azonban eltérőek, ami szükségessé teszi az átfogó együttműködést és koordinációt.

De hogyan kell elképzelni mindezt? Lehetséges irány, hogy a kormányzat hozza a jogszabályokat, a nemzetközi szervezetek pedig a globális iránymutatásokat dolgozzák ki. Az etikai kódexeket az iparági szövetségek/szervezetek alkotják, a kutatóintézetek a mesterséges intelligencia hatásainak kutatásával foglalkoznak, a vállalatok pedig azért felelnek, hogy az általuk fejlesztett technológia megfeleljen ezeknek a kritériumoknak.

Az AI szabályozása nem csak a technológiai fejlesztők feladata, hanem egy össztársadalmi kihívás, melyet együtt kell kezelnünk, és ami érint biztonsági, etikai, jogi és gazdasági kérdéseket is.

Mi várható a közeljövőben?

A Deloitte felmérése alapján az üzleti döntéshozók 76%-a gondolja úgy, hogy az AI rendszerek teljesen átalakítják majd a jövőben a vállalati struktúrát és működési alapelveket. Egyharmaduk hozzátette azt is, hogy az etikai kockázatok az egyik legnagyobb aggodalmuk ennek kapcsán. Nem túl jó predikció számukra, hogy a technológiai szakemberek, politikai döntéshozók 68%-a negatívan tekint a jövőre: úgy látják, hogy az etikai szabályozások a legtöbb AI rendszerben még 2030-ra sem kerülnek alkalmazásra.
Ami szintén aggasztó, hogy a mesterséges intelligencia szabályozása nélkül a technológia iránti közvélemény is átalakul: a társadalom elutasítóvá válhat az AI-val szemben, így annak előnyei nem teljesedhetnek ki.

Ha érdekel az AI és adatszabályozás témája, akkor nézd meg videónkat a Protechtor oldalán, amiben arról beszélgetünk, hogy mi várható az adatszabályozási ökoszisztémában, és hogyan fejleszthetünk versenyképes, de jogálló termékeket.

Mit látunk mi a Stylers Groupnál?

Mi is azt látjuk, hogy az AI alkalmazása elképesztő hatékonyságnövekedést hozhat, így azok a vállalatok, akik már most tudatosan beépítik a működésükbe, versenyelőnyre tehetnek szert. Ennek a fordítottja is igaz: azok a szervezetek, akik a kivárásra voksolnak, jelentős lemaradásba kerülhetnek. Ezért mi azt tanácsoljuk ügyfeleinknek, hogy legalább 1-1 projekttel induljanak el, kezdjék el kiaknázni az AI lehetőségeit, kezdjék el megismerni az alkalmazását. Mi a Stylers Groupnál elkötelezettek vagyunk amellett, hogy ebben segítsük a partnereinket a szabályozási követelmények és az etikai normák figyelembevételével.
Pontosan emiatt konkrét AI fejlesztési projektek és tanácsadás mellett képzésekkel és készségfejlesztéssel is támogatjuk őket, etikai és szabályozási kérdésekhez kapcsolódóan is.

Ha partnert keresel az AI lehetőségeinek felfedezésére és a szabályozási kihívások kezelésére, örömmel állunk rendelkezésedre.