Oficialiai paskelbta ES ataskaita apie paaiškinamąjį dirbtinį intelektą švietime

Spalio mėnesį dalinomės žinia, kad mūsų instituto tyrėjos Airina Volungevičienė ir Giedrė Tamoliūnė dalyvavo tarptautinėse dirbtuvėse „Explainable AI in Education“, kurias organizavo European Digital Education Hub (EDEH). Be to, Giedrė Tamoliūnė buvo ir EDEH „Explainable AI“ (XAI) darbo grupės narė, prisidėjusi rengiant ataskaitą apie paaiškinamąjį dirbtinį intelektą švietime.

Šiandien džiaugiamės galėdami pranešti, kad XAI darbo grupės intensyvaus bendradarbiavimo rezultatas – ataskaita „Explainable AI in Education: Fostering human oversight and shared responsibility“ – buvo oficialiai paskelbta Europos Sąjungos leidinių biuro, taip užtikrinant dar platesnį jos pasiekiamumą ir poveikį.

Kodėl ši ataskaita svarbi?

Ataskaitoje nagrinėjami svarbūs klausimai:

  • kodėl būtina spręsti DI sistemų paaiškinamumo problemą švietimo srityje;
  • kokių teisinių reikalavimų būtina laikytis;
  • kokių poreikių turi skirtingos švietimo suinteresuotųjų šalių grupės, siekiant stiprinti jų pasitikėjimą DI;
  • kokių kompetencijų reikia pedagogams, kad jie galėtų dirbti su paaiškinamuoju DI.

Paaiškinamasis DI švietime nėra tik techninis sudėtingų modelių „paaiškinimas“. Tai – svarbi sąlyga užtikrinti pasitikėjimą, veiksmingumą ir žmogiškąją veiklą mokymo(si) aplinkose, kurios vis dažniau remiasi DI priemonėmis.

Paaiškinamas DI atlieka svarbų vaidmenį siekiant, kad technologijos atitiktų švietimo vertybes, teisinius standartus ir pedagoginius tikslus. Tai reikalauja nuolatinio bendradarbiavimo tarp įvairių mokslo sričių, sektorių ir suinteresuotųjų šalių. Kviečiame susipažinti su visa ataskaita, kurią rasite paspaudę šią nuorodą.