Valdybos patiria spaudimą greičiau priimti sprendimus, juos viešai ginti ir prisiimti atsakomybę, kai rezultatai neigiami. Šioje aplinkoje dirbtinis intelektas skamba kaip akivaizdus pranašumas: jis gali apdoroti didelius informacijos kiekius, palyginti scenarijus, išryškinti anomalijas ir sumažinti kai kurias žmonių šališkumo formas. Vis dėlto daugelyje Lietuvos įmonių dirbtinis intelektas išlieka operacijų, o ne valdybos įrankiu.
Remiantis ISM universiteto pranešime apie pokalbius su valdybos nariais pasidalytomis įžvalgomis, pagrindinė kliūtis yra ne pati technologija. Tai nepatogus atskaitomybės klausimas: kas „priklauso“ dirbtinio intelekto paremtam sprendimui, kai jis nepavyksta?
Valdybos yra atsargios, nes atskaitomybė yra asmeninė, o ne automatizuota
Valdybos valdyme atsakomybė neišnyksta įdiegus įrankį. Valdybos nariai patvirtina strategiją, rizikos apetitą, investicijas, sprendimus dėl įdarbinimo aukščiausiu lygiu ir reagavimą į krizes. Jei dirbtinio intelekto modelis palaiko analizę, teisinė ir reputacijos našta vis tiek tenka žmonėms.
Tai sukuria praktinę kliūtį. Jei valdybos narys negali užtikrintai paaiškinti, kodėl DI pateikė tam tikrą rekomendaciją, jis dvejoja, ar ja remtis. O jei jis negali numatyti, kaip suinteresuotosios šalys, reguliavimo institucijos ar teismai įvertintų DI paveiktą sprendimą po fakto, saugiausias pasirinkimas tampa nieko nedarymas.
„Pilkoji zona“ yra ne tik teisinė, bet ir reputacinė
Daugelis valdybų nerimauja dėl scenarijaus, kuris atrodo vis realesnis: sprendimas viduje ginamas kaip „pagrįstas duomenimis“ arba „pagrįstas DI“, bet vėliau tampa finansiškai žalingas arba socialiai prieštaringas. Tokiais momentais organizacijai reikia naratyvo, kurį būtų galima aiškiai perteikti akcininkams, darbuotojams, klientams ir visuomenei.
DI gali apsunkinti šį naratyvą. Jei valdyba negali parodyti skaidrios samprotavimo grandinės, gali atrodyti, kad įmonė perdavė sprendimus išorės subjektams. Toks suvokimas gali būti žalingesnis nei patys finansiniai nuostoliai, nes jis kvestionuoja vadovybės kompetenciją ir vertybes.
DI atskleidžia jau egzistavusius valdymo trūkumus
Pasikartojanti ISM diskusijos išvada yra ta, kad DI nesukuria valdymo problemų. Tai juos atskleidžia. Jei duomenų kokybė yra nenuosekli, jei neaišku, kas yra pagrindiniai rodikliai, ir jei neapibrėžti sprendimų priėmimo kriterijai, DI tiesiog greičiau sukelia painiavą.
Štai kodėl organizacijos, turinčios stiprią duomenų kultūrą, yra atviresnės DI valdybos lygmeniu. Kai ataskaitos yra struktūrizuotos, rizikos rodikliai yra nuoseklūs ir vadovybė gali ginti prielaidas, DI tampa akseleratoriumi. Kai duomenys yra fragmentiški, o valdymo praktika neformali, DI tampa dėmesio centru, kurio niekas nenori įjungti.
Valdybos dažnai užduoda neteisingą pirmąjį klausimą: „Kuris įrankis?“
Kai DI įsitraukia į valdybos pokalbius, diskusija dažnai prasideda nuo tiekėjų, funkcijų ir ataskaitų sričių. Tačiau naudingesnis pirmasis klausimas yra: „Kaip mes, kaip valdyba, dirbsime su DI?“
Tai reiškia, kad prieš bet kokį diegimą reikia susitarti dėl pagrindinių principų:
- Kokius sprendimus gali paremti DI nekeisdamas valdybos atsakomybės modelio?
- Kokį kokybės slenkstį turi atitikti duomenys, kad DI įžvalgos būtų laikomos patikimomis?
- Kaip bus tikrinamos, ginčijamos ir dokumentuojamos prielaidos?
- Kas patvirtina rezultatus: vidaus auditas, rizikos valdymas, išorės ekspertai ar specialus komitetas?
Be šių atsakymų DI išlieka „gražiu fonu“ pristatymuose, o ne drausminga valdymo dalimi.
Ne kiekvienas valdybos sprendimas turėtų būti „optimizuotas DI“
DI geriausiai veikia pasikartojančiuose kontekstuose, kai duomenys yra aiškūs ir rezultatai išmatuojami. Tai gali apimti ankstyvą rizikos nustatymą, finansinių scenarijų modeliavimą, tiekimo grandinės poveikio žemėlapių sudarymą arba atitikties rodiklių stebėseną.
Tačiau valdybos taip pat sprendžia su vertybėmis, pasitikėjimu ir kolektyvine atsakomybe susijusius klausimus: reputacijos kompromisus, etines dilemas, jautrius darbo jėgos pokyčius arba strateginius veiksmus, turinčius įtakos įmonės tapatybei. Tokiose situacijose dirbtinis intelektas gali informuoti diskusiją, tačiau jis neturėtų pakeisti žmogaus sprendimo ar būti laikomas autoritetu.
Brandus požiūris yra atskirti „DI remiamą analizę“ nuo „valdybos priimamo sprendimo“. Pirmąjį galima pritaikyti pagal mastelį. Antrasis turi likti žmogiškas.
Lietuviškas kontekstas: reguliavimas keičiasi greičiau nei valdybų įpročiai
Visoje ES griežtėja su dirbtiniu intelektu susiję valdymo lūkesčiai. ES dirbtinio intelekto įstatymas nustato sistemą, kuri laikui bėgant palaipsniui tampa taikoma, skatindama organizacijas galvoti apie riziką, skaidrumą ir atskaitomybę naudojant dirbtinio intelekto sistemas. Net jei valdyba tiesiogiai nediegia didelės rizikos dirbtinio intelekto, kryptis aiški: dirbtinio intelekto naudojimas turi būti paaiškinamas, kontroliuojamas ir suderintas su teisiniais bei etiniais principais.
Lietuvoje viešosios įstaigos jau ruošiasi šiai reguliavimo aplinkai. Įmonėms tai reiškia, kad „mes nenaudojame dirbtinio intelekto valdybos lygmeniu“ nebus pakankama ilgalaikė strategija, jei dirbtinis intelektas bus naudojamas bet kurioje organizacijos vietoje taip, kad tai paveiks žmones, rinkas ar atitiktį reikalavimams.
Praktinis planas valdyboms, norinčioms naudos be chaoso
Valdyboms nereikia imtis sudėtingų dirbtinio intelekto diegimų, kad pradėtų gauti vertės. Laipsniškas požiūris sumažina riziką ir didina pasitikėjimą:
1) Apibrėžkite saugius ir išmatuojamus naudojimo atvejus
Pradėkite nuo sričių, kuriose galima išbandyti rezultatus, pavyzdžiui, scenarijų modeliavimas, finansų srities anomalijų aptikimas arba struktūrizuotos viešai prieinamos rinkos informacijos santraukos. Venkite svarbių sprendimų, turinčių negrįžtamą poveikį, kol pagerės valdymo branda.
2) Nustatykite DI naudojimo „valdybos taisykles“
Susitarkite, kas turi būti dokumentuojama naudojant DI: duomenų šaltiniai, modelio versija, prielaidos, patvirtinimo veiksmai ir kokie žmonių patikrinimai buvo taikomi. Tai traktuokite kaip valdymo protokolą, o ne techninę detalę.
3) Priskirkite atsakomybę už duomenų kokybę ir patvirtinimą
DI yra toks pat patikimas, koks yra duomenų srautas, esantis už jo. Valdybos turėtų reikalauti aiškaus svarbiausių duomenų rinkinių savininko ir nustatyti, kas yra atsakingas už DI rezultatų tikrinimą prieš jiems pradedant spręsti sprendimus.
4) Ugdykite kompetenciją, o ne priklausomybę
Valdyboms nereikia tapti inžinieriais, tačiau joms reikia DI raštingumo: suprasti apribojimus, šališkumo riziką ir ką praktiškai reiškia „paaiškinimas“. Priešingu atveju jos negali ginčyti DI paremtos analizės taip, kaip jos ginčija vadovybės pasiūlymus.
Tikrasis pasirinkimas: tobulinti valdymą dabar arba vytis realybę vėliau
Svarbiausia moksliniais tyrimais pagrįstos diskusijos žinia yra nepatogi, bet naudinga: valdybos, kurios vengia DI, gali manyti, kad mažina riziką, tačiau iš tikrųjų gali ją atidėti. Organizacijoms diegiant DI visose operacijose, klientų aptarnavime, žmogiškųjų išteklių ir rizikos valdyme, valdybos lygmens valdymas bus išbandytas, patinka valdyboms tai ar ne.
DI nereikalauja, kad valdybos atsisakytų atsakomybės. Ji reikalauja, kad valdybos taptų drausmingesnės: aiškesni kriterijai, geresni duomenys, tvirtesnė dokumentacija ir bendras metodas prielaidoms ginčyti. Kitaip tariant, kliūtis nėra įrankis. Tai yra valdymo pasirengimas dirbti su juo.
Kas jūsų organizacijos valdybai padėtų jaustis patogiai naudojant dirbtinio intelekto įžvalgas: aiškesnės vidaus taisyklės, geresnė duomenų kokybė ar išorinės reguliavimo gairės?














