មគ្គុទ្ទេសក៍សម្រាប់អ្នកបង្កើតគោលនយោបាយ៖ ការវាយតម្លៃបច្ចេកវិទ្យាដែលកំពុងអភិវឌ្ឍយ៉ាងឆាប់រហ័ស រួមទាំង AI គំរូភាសាធំៗ និងលើសពីនេះទៀត

នៅក្នុងអត្ថបទនេះ ISC ស្វែងយល់ពីគ្រោងនៃក្របខ័ណ្ឌមួយ ដើម្បីជូនដំណឹងដល់អ្នកបង្កើតគោលនយោបាយស្តីពីការពិភាក្សាជាសកល និងថ្នាក់ជាតិជាច្រើនដែលធ្វើឡើងទាក់ទងនឹង AI ។

មគ្គុទ្ទេសក៍សម្រាប់អ្នកបង្កើតគោលនយោបាយ៖ ការវាយតម្លៃបច្ចេកវិទ្យាដែលកំពុងអភិវឌ្ឍយ៉ាងឆាប់រហ័ស រួមទាំង AI គំរូភាសាធំៗ និងលើសពីនេះទៀត

មគ្គុទ្ទេសក៍របស់ ISC ផ្តល់នូវក្របខ័ណ្ឌដ៏ទូលំទូលាយមួយដែលត្រូវបានរចនាឡើងដើម្បីភ្ជាប់គម្លាតរវាងគោលការណ៍កម្រិតខ្ពស់ និងគោលនយោបាយដែលអាចអនុវត្តបាន និងជាក់ស្តែង។ វាឆ្លើយតបទៅនឹងតម្រូវការបន្ទាន់សម្រាប់ការយល់ដឹងរួមនៃទាំងឱកាស និងហានិភ័យដែលបង្ហាញដោយបច្ចេកវិទ្យាដែលកំពុងរីកចម្រើន។ នេះគឺជាឯកសារសំខាន់សម្រាប់អ្នកដែលធ្វើការនៅទំនាក់ទំនងគោលនយោបាយនៅក្នុងយុគសម័យឌីជីថលដែលកំពុងផ្លាស់ប្តូរយ៉ាងឆាប់រហ័សរបស់យើង។

ក្របខណ្ឌស្វែងយល់ពីសក្តានុពលនៃ AI និងដេរីវេរបស់វាតាមរយៈកញ្ចក់ដ៏ទូលំទូលាយ ដែលគ្របដណ្តប់សុខុមាលភាពមនុស្ស និងសង្គម រួមជាមួយនឹងកត្តាខាងក្រៅដូចជាសេដ្ឋកិច្ច នយោបាយ បរិស្ថាន និងសន្តិសុខ។ ទិដ្ឋភាពមួយចំនួននៃបញ្ជីត្រួតពិនិត្យអាចមានភាពពាក់ព័ន្ធជាងផ្នែកផ្សេងទៀត អាស្រ័យលើបរិបទ ប៉ុន្តែការសម្រេចចិត្តកាន់តែប្រសើរឡើងហាក់ដូចជាទំនងជាប្រសិនបើដែនទាំងអស់ត្រូវបានពិចារណា បើទោះបីជាមួយចំនួនអាចត្រូវបានកំណត់យ៉ាងឆាប់រហ័សថាមិនពាក់ព័ន្ធក្នុងករណីពិសេសក៏ដោយ។ នេះគឺជាតម្លៃដើមនៃវិធីសាស្រ្តបញ្ជីត្រួតពិនិត្យ។

Peter Gluckman

ប្រធាន ISC

“នៅក្នុងយុគសម័យមួយដែលត្រូវបានសម្គាល់ដោយការច្នៃប្រឌិតបច្ចេកវិទ្យាយ៉ាងឆាប់រហ័ស និងបញ្ហាប្រឈមជាសាកលដ៏ស្មុគស្មាញ ក្របខ័ណ្ឌរបស់ ISC សម្រាប់ការវិភាគទូលំទូលាយ និងពហុវិមាត្រនៃផលប៉ះពាល់សក្តានុពលផ្តល់អំណាចដល់អ្នកដឹកនាំដើម្បីធ្វើការសម្រេចចិត្តប្រកបដោយការទទួលខុសត្រូវ។ វាធានាថា នៅពេលយើងជឿនលឿនផ្នែកបច្ចេកវិទ្យា យើងធ្វើដូច្នេះដោយគិតគូរយ៉ាងយកចិត្តទុកដាក់ចំពោះផលប៉ះពាល់ខាងសីលធម៌ សង្គម និងសេដ្ឋកិច្ច»។

ខណៈពេលដែលគោលការណ៍កម្រិតខ្ពស់ត្រូវបានប្រកាសឱ្យប្រើដោយអង្គការយូណេស្កូ អង្គការ OECD គណៈកម្មការអឺរ៉ុប និងអង្គការសហប្រជាជាតិ ក្នុងចំណោមអ្នកដទៃទៀត និងការពិភាក្សាផ្សេងៗបន្តទាក់ទងនឹងបញ្ហាអភិបាលកិច្ច បទប្បញ្ញត្តិ ក្រមសីលធម៌ និងសុវត្ថិភាពដែលមានសក្តានុពលនោះ មានគម្លាតធំរវាងគោលការណ៍ទាំងនេះ និង ការគ្រប់គ្រង ឬក្របខណ្ឌច្បាប់។ ISC ដោះស្រាយតម្រូវការនេះតាមរយៈការណែនាំថ្មីរបស់ខ្លួនសម្រាប់អ្នកបង្កើតគោលនយោបាយ។

មគ្គុទ្ទេសក៍នេះសម្រាប់អ្នកបង្កើតគោលនយោបាយមិនមានបំណងដើម្បីផ្តល់របបបទប្បញ្ញត្តិទេ ប៉ុន្តែជាការផ្តល់យោបល់ដល់ក្របខណ្ឌវិភាគដែលសម្របខ្លួន និងវិវឌ្ឍន៍ ដែលអាចគាំទ្រដល់ដំណើរការវាយតម្លៃ និងបទប្បញ្ញត្តិដែលអាចត្រូវបានបង្កើតឡើងដោយភាគីពាក់ព័ន្ធ រួមទាំងរដ្ឋាភិបាល និងប្រព័ន្ធពហុភាគី។

ហេម៉ា ស្រ៊ីដ

អតីតប្រធានទីប្រឹក្សាវិទ្យាសាស្ត្រ ក្រសួងការពារជាតិ នូវែលសេឡង់ និងបច្ចុប្បន្នជាអ្នកស្រាវជ្រាវជាន់ខ្ពស់ សាកលវិទ្យាល័យ Auckland ប្រទេសនូវែលសេឡង់។

"ក្របខ័ណ្ឌគឺជាជំហានដ៏សំខាន់មួយនៅក្នុងការសន្ទនាជាសកលស្តីពី AI ព្រោះវាផ្តល់នូវមូលដ្ឋានដែលយើងអាចបង្កើតការឯកភាពគ្នាលើផលប៉ះពាល់នៃបច្ចេកវិទ្យាសម្រាប់ទាំងបច្ចុប្បន្ន និងទៅអនាគត"។ 

ចាប់តាំងពីខែតុលា ឆ្នាំ 2023 មក មានគំនិតផ្តួចផ្តើមជាតិ និងពហុភាគីសំខាន់ៗជាច្រើន ដោយមានការពិចារណាបន្ថែមអំពីក្រមសីលធម៌ និងសុវត្ថិភាពរបស់ AI ។ ផលប៉ះពាល់នៃ AI លើភាពសុចរិតនៃប្រព័ន្ធសំខាន់ៗមួយចំនួនរបស់យើង រួមទាំងហិរញ្ញវត្ថុ រដ្ឋាភិបាល ច្បាប់ និងការអប់រំ ព្រមទាំងប្រព័ន្ធចំណេះដឹងផ្សេងៗគ្នា (រួមទាំងចំណេះដឹងផ្នែកវិទ្យាសាស្ត្រ និងជនជាតិដើមភាគតិច) គឺមានការព្រួយបារម្ភកាន់តែខ្លាំងឡើង។ ក្របខ័ណ្ឌនេះឆ្លុះបញ្ចាំងបន្ថែមទៀតអំពីទិដ្ឋភាពទាំងនេះ។

មតិកែលម្អដែលទទួលបានពីសមាជិក ISC និងសហគមន៍បង្កើតគោលនយោបាយអន្តរជាតិរហូតមកដល់បច្ចុប្បន្នត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងកំណែកែសម្រួលនៃក្របខ័ណ្ឌវិភាគ ដែលឥឡូវនេះត្រូវបានចេញផ្សាយជាការណែនាំដល់អ្នកបង្កើតគោលនយោបាយ។

មគ្គុទ្ទេសក៍សម្រាប់អ្នកបង្កើតគោលនយោបាយ៖ ការវាយតម្លៃបច្ចេកវិទ្យាដែលកំពុងអភិវឌ្ឍយ៉ាងឆាប់រហ័ស រួមទាំង AI គំរូភាសាធំៗ និងលើសពីនេះទៀត

ឯកសារពិភាក្សានេះផ្តល់នូវគ្រោងនៃក្របខ័ណ្ឌដំបូងដើម្បីជូនដំណឹងដល់ការពិភាក្សាជាសកល និងថ្នាក់ជាតិជាច្រើនដែលធ្វើឡើងទាក់ទងនឹង AI ។

ទាញយកក្របខ័ណ្ឌសម្រាប់ប្រើប្រាស់ក្នុងស្ថាប័នរបស់អ្នក។

នៅទីនេះយើងផ្តល់ឧបករណ៍ក្របខ័ណ្ឌជាសន្លឹក Excel ដែលអាចកែសម្រួលបានសម្រាប់ប្រើក្នុងស្ថាប័នរបស់អ្នក។ ប្រសិនបើអ្នកចូលចិត្តទម្រង់ប្រភពបើកចំហ សូមទាក់ទង secretariat@council.science ។

សេចក្តីផ្តើម

បច្ចេកវិទ្យាដែលកំពុងរីកចម្រើនយ៉ាងឆាប់រហ័សបង្ហាញពីបញ្ហាប្រឈមនៅពេលនិយាយអំពីការប្រើប្រាស់ អភិបាលកិច្ច និងបទប្បញ្ញត្តិសក្តានុពល។ គោលនយោបាយដែលកំពុងបន្ត និងការជជែកដេញដោលជាសាធារណៈលើបញ្ញាសិប្បនិមិត្ត (AI) និងការប្រើប្រាស់របស់វាបាននាំបញ្ហាទាំងនេះទៅជាការផ្តោតអារម្មណ៍ខ្លាំង។ គោលការណ៍ទូលំទូលាយសម្រាប់ AI ត្រូវបានប្រកាសដោយអង្គការយូណេស្កូ អង្គការ OECD អង្គការសហប្រជាជាតិ និងផ្សេងៗទៀត រួមទាំងសេចក្តីប្រកាស Bletchley របស់ចក្រភពអង់គ្លេស ហើយមានការប៉ុនប៉ងតាមយុត្តាធិការដែលកំពុងលេចឡើងក្នុងបទប្បញ្ញត្តិនៃទិដ្ឋភាពនៃបច្ចេកវិទ្យាតាមរយៈឧទាហរណ៍ សហភាពអឺរ៉ុប (EU) AI ច្បាប់ ឬបទបញ្ជាប្រតិបត្តិ AI របស់សហរដ្ឋអាមេរិកថ្មីៗនេះ។

ខណៈពេលដែលការប្រើប្រាស់ AI ត្រូវបានពិភាក្សាយ៉ាងយូរនៅក្នុងវិស័យទាំងនេះ និងវេទិកាផ្សេងទៀត ទូទាំងការបែងចែកភូមិសាស្ត្រនយោបាយ និងនៅក្នុងប្រទេសនៅគ្រប់កម្រិតប្រាក់ចំណូល វានៅតែមានគម្លាតរវាងការអភិវឌ្ឍនៃគោលការណ៍កម្រិតខ្ពស់ និងការបញ្ចូលទៅក្នុងការអនុវត្តតាមរយៈបទប្បញ្ញត្តិ គោលនយោបាយ អភិបាលកិច្ច។ ឬវិធីសាស្រ្តគ្រប់គ្រង។ ផ្លូវពីគោលការណ៍ទៅការអនុវត្តត្រូវបានកំណត់យ៉ាងលំបាក ប៉ុន្តែដោយសារធម្មជាតិ និងនិន្នាការនៃការអភិវឌ្ឍន៍ និងកម្មវិធី AI ភាពចម្រុះនៃចំណាប់អារម្មណ៍ និងជួរនៃកម្មវិធីដែលអាចធ្វើបាន វិធីសាស្រ្តណាមួយមិនអាចមានលក្ខណៈទូទៅ ឬតាមវេជ្ជបញ្ជានោះទេ។

សម្រាប់ហេតុផលទាំងនេះ សហគមន៍វិទ្យាសាស្ត្រក្រៅរដ្ឋាភិបាលនៅតែបន្តដើរតួនាទីជាក់លាក់មួយ។ ក្រុមប្រឹក្សាវិទ្យាសាស្ត្រអន្តរជាតិ (ISC) - ជាមួយនឹងសមាជិកភាពពហុនិយមរបស់ខ្លួនពីវិទ្យាសាស្ត្រសង្គម និងធម្មជាតិ បានចេញផ្សាយឯកសារពិភាក្សាមួយក្នុងខែតុលា ឆ្នាំ 2023 ដែលបង្ហាញពីក្របខណ្ឌវិភាគបឋមដែលគិតគូរពីហានិភ័យ អត្ថប្រយោជន៍ ការគំរាមកំហែង និងឱកាសដែលទាក់ទងនឹងបច្ចេកវិទ្យាឌីជីថលដែលមានការផ្លាស់ប្តូរយ៉ាងឆាប់រហ័ស។ ខណៈពេលដែលវាត្រូវបានបង្កើតឡើងដើម្បីពិចារណាលើ AI វាជាបច្ចេកវិទ្យាដែលមិនគួរឱ្យជឿ ហើយអាចត្រូវបានអនុវត្តចំពោះបច្ចេកវិទ្យាដែលកំពុងរីកចម្រើន និងរំខានជាច្រើនដូចជា ជីវវិទ្យាសំយោគ និង quantum ។ ឯកសារពិភាក្សានោះបានអញ្ជើញមតិកែលម្អពីអ្នកសិក្សា និងអ្នកបង្កើតគោលនយោបាយ។ មតិកែលម្អដ៏លើសលប់បានធ្វើឱ្យមានការវិភាគចាំបាច់ និងឈរជាវិធីសាស្រ្តដ៏មានតម្លៃក្នុងការដោះស្រាយបច្ចេកវិទ្យាដែលកំពុងរីកចម្រើនដូចជា AI ជាដើម។

គោលបំណងនៃក្របខ័ណ្ឌនេះគឺដើម្បីផ្តល់ឧបករណ៍មួយដើម្បីជូនដំណឹងដល់អ្នកពាក់ព័ន្ធទាំងអស់ - រួមទាំងរដ្ឋាភិបាល អ្នកចរចាពាណិជ្ជកម្ម និយតករ សង្គមស៊ីវិល និងឧស្សាហកម្ម - អំពីការវិវត្តន៍នៃបច្ចេកវិទ្យាទាំងនេះ ដើម្បីជួយពួកគេកំណត់ពីរបៀបដែលពួកគេអាចពិចារណាពីផលប៉ះពាល់ វិជ្ជមាន ឬអវិជ្ជមាននៃ បច្ចេកវិទ្យាខ្លួនវា និងជាពិសេសកម្មវិធីពិសេសរបស់វា។ ក្របខណ្ឌវិភាគនេះត្រូវបានបង្កើតឡើងដោយឯករាជ្យពីផលប្រយោជន៍របស់រដ្ឋាភិបាល និងឧស្សាហកម្ម។ វាមានលក្ខណៈពហុនិយមជាអតិបរមានៅក្នុងទស្សនវិស័យរបស់វា ដែលគ្របដណ្តប់គ្រប់ទិដ្ឋភាពទាំងអស់នៃបច្ចេកវិទ្យា និងផលប៉ះពាល់របស់វាដោយផ្អែកលើការពិគ្រោះយោបល់ និងមតិកែលម្អយ៉ាងទូលំទូលាយ។

ឯកសារពិភាក្សានេះសម្រាប់អ្នកបង្កើតគោលនយោបាយមិនមានបំណងដើម្បីផ្តល់របបបទប្បញ្ញត្តិទេ ប៉ុន្តែជាការផ្តល់យោបល់ដល់ក្របខ័ណ្ឌវិភាគដែលសម្របខ្លួន និងវិវត្តដែលអាចគាំទ្រដល់ដំណើរការវាយតម្លៃ និងបទប្បញ្ញត្តិដែលអាចត្រូវបានបង្កើតឡើងដោយភាគីពាក់ព័ន្ធ រួមទាំងរដ្ឋាភិបាល និងប្រព័ន្ធពហុភាគី។

ក្នុងនាមជាអ្នកធ្វើការសម្រេចចិត្តនៅទូទាំងពិភពលោក និងថ្នាក់ជាតិពិចារណាលើការកំណត់គោលនយោបាយសមស្រប និងគន្លឹះដើម្បីធ្វើសមតុល្យហានិភ័យ និងរង្វាន់នៃបច្ចេកវិទ្យាថ្មីដូចជា AI នោះ ក្របខណ្ឌវិភាគត្រូវបានបម្រុងទុកជាឧបករណ៍បំពេញបន្ថែមដើម្បីធានាថាការរួមបញ្ចូលពេញលេញនៃផលប៉ះពាល់សក្តានុពលត្រូវបានឆ្លុះបញ្ចាំងឱ្យបានគ្រប់គ្រាន់។

ផ្ទៃ​ខាង​ក្រោយ៖ ហេតុអ្វី​បាន​ជា​ក្របខណ្ឌ​វិភាគ?

ការលេចឡើងយ៉ាងឆាប់រហ័សនៃបច្ចេកវិទ្យាជាមួយនឹងភាពស្មុគស្មាញ និងផលប៉ះពាល់នៃ AI កំពុងជំរុញឱ្យមានការអះអាងជាច្រើនអំពីអត្ថប្រយោជន៍ដ៏អស្ចារ្យ។ ទោះជាយ៉ាងណាក៏ដោយ វាក៏បង្កឱ្យមានការភ័យខ្លាចនៃហានិភ័យសំខាន់ៗផងដែរ ពីបុគ្គលទៅកម្រិតភូមិសាស្ត្រ។1 ការពិភាក្សាជាច្រើនរហូតមកដល់បច្ចុប្បន្នត្រូវបានពិចារណាក្នុងន័យគោលពីរ ខណៈដែលទស្សនៈដែលបានបង្ហាញជាសាធារណៈមានទំនោរនឹងប្រព្រឹត្តទៅនៅចុងបំផុតនៃវិសាលគមនេះ។ ការទាមទារដែលធ្វើឡើងសម្រាប់ ឬប្រឆាំងនឹង AI ជាញឹកញាប់មានអព្យាក្រឹត ហើយផ្តល់លក្ខណៈនៃបច្ចេកវិទ្យា ពិបាកក្នុងការវាយតម្លៃ។

វិធីសាស្រ្តជាក់ស្តែងបន្ថែមទៀតគឺចាំបាច់ដែលអ៊ីពែបូលត្រូវបានជំនួសដោយការក្រិតតាមខ្នាត និងការវាយតម្លៃជាក្រឡាបន្ថែមទៀត។ បច្ចេកវិទ្យា AI នឹងបន្តវិវឌ្ឍ ហើយប្រវតិ្តសាស្រ្តបង្ហាញថា ស្ទើរតែគ្រប់បច្ចេកវិទ្យាទាំងអស់មានទាំងការប្រើប្រាស់ដែលមានប្រយោជន៍ និងគ្រោះថ្នាក់។ ដូច្នេះ សំណួរគឺ៖ តើយើងអាចសម្រេចបានលទ្ធផលជាប្រយោជន៍ពីបច្ចេកវិទ្យានេះដោយរបៀបណា ខណៈពេលដែលកាត់បន្ថយហានិភ័យនៃផលវិបាកដែលបង្កគ្រោះថ្នាក់ ដែលមួយចំនួនអាចមាននៅក្នុងទំហំ?

អនាគតគឺតែងតែមិនប្រាកដប្រជា ប៉ុន្តែមានសំឡេងដែលគួរឱ្យទុកចិត្ត និងអ្នកជំនាញគ្រប់គ្រាន់ទាក់ទងនឹង AI និង AI ជំនាន់ដើម ដើម្បីលើកទឹកចិត្តឱ្យមានវិធីសាស្រ្តប្រុងប្រយ័ត្ន។ លើសពីនេះ វិធីសាស្រ្តប្រព័ន្ធគឺចាំបាច់ ដោយសារ AI គឺជាថ្នាក់នៃបច្ចេកវិទ្យាដែលមានការប្រើប្រាស់ និងកម្មវិធីយ៉ាងទូលំទូលាយដោយអ្នកប្រើប្រាស់ច្រើនប្រភេទ។ នេះមានន័យថាបរិបទពេញលេញត្រូវតែត្រូវបានពិចារណានៅពេលពិចារណាពីផលប៉ះពាល់នៃការប្រើប្រាស់ AI ណាមួយសម្រាប់បុគ្គល ជីវិតសង្គម ជីវិតពលរដ្ឋ ជីវិតសង្គម និងក្នុងបរិបទសកល។

មិនដូចបច្ចេកវិទ្យាផ្សេងទៀតទេ សម្រាប់បច្ចេកវិទ្យាឌីជីថល និងបច្ចេកវិទ្យាដែលពាក់ព័ន្ធ ពេលវេលារវាងការអភិវឌ្ឍន៍ ការចេញផ្សាយ និងកម្មវិធីគឺខ្លីបំផុត ដែលភាគច្រើនត្រូវបានជំរុញដោយផលប្រយោជន៍របស់ក្រុមហ៊ុនផលិតកម្ម ឬភ្នាក់ងារ។ ដោយធម្មជាតិរបស់វា – ហើយត្រូវបានផ្តល់ឱ្យវាផ្អែកលើឆ្អឹងខ្នងឌីជីថល – AI នឹងមានកម្មវិធីដែលរីករាលដាលយ៉ាងឆាប់រហ័ស ដូចដែលបានឃើញរួចមកហើយជាមួយនឹងការអភិវឌ្ឍន៍នៃគំរូភាសាធំៗ។ ជាលទ្ធផល ទ្រព្យសម្បត្តិមួយចំនួនអាចលេចចេញជារូបរាងបាន លុះត្រាតែមានការចេញផ្សាយ មានន័យថា មានហានិភ័យនៃផលវិបាកដែលមិនបានមើលឃើញទុកជាមុន ទាំងអំពើទុច្ចរិត និងសប្បុរស។

វិមាត្រនៃតម្លៃសង្គមសំខាន់ៗ ជាពិសេសនៅទូទាំងតំបន់ និងវប្បធម៌ផ្សេងៗ នឹងមានឥទ្ធិពលលើរបៀបដែលការប្រើប្រាស់ណាមួយត្រូវបានយល់ឃើញ និងទទួលយក។ លើសពីនេះ ផលប្រយោជន៍ភូមិសាស្ត្រកំពុងគ្របដណ្តប់លើការពិភាក្សារួចហើយ ដោយផលប្រយោជន៍អធិបតេយ្យភាព និងពហុភាគីបានប្រសព្វគ្នាជាបន្តបន្ទាប់ ហើយដូច្នេះជំរុញឱ្យមានការប្រកួតប្រជែង និងការបែងចែក។

រហូតមកដល់បច្ចុប្បន្ន បទប្បញ្ញត្តិភាគច្រើននៃបច្ចេកវិទ្យានិម្មិតត្រូវបានគេមើលឃើញយ៉ាងទូលំទូលាយតាមរយៈកញ្ចក់នៃ 'គោលការណ៍' និងការអនុលោមតាមស្ម័គ្រចិត្ត ទោះបីជាមានច្បាប់ EU AI ក៏ដោយ។2 ហើយស្រដៀងគ្នានេះដែរ យើងកំពុងមើលឃើញការផ្លាស់ប្តូរទៅបទប្បញ្ញត្តិដែលអាចអនុវត្តបានកាន់តែច្រើន ប៉ុន្តែមានលក្ខណៈតូចចង្អៀតបន្តិច។ ការបង្កើតអភិបាលកិច្ចបច្ចេកវិទ្យាសកល ឬថ្នាក់ជាតិប្រកបដោយប្រសិទ្ធភាព និង/ឬប្រព័ន្ធនិយតកម្មនៅតែជាបញ្ហាប្រឈម ហើយមិនមានដំណោះស្រាយជាក់ស្តែងទេ។ ស្រទាប់ជាច្រើននៃការសម្រេចចិត្តដែលផ្តល់ព័ត៌មានអំពីហានិភ័យនឹងត្រូវការជាចាំបាច់នៅតាមខ្សែសង្វាក់ ពីអ្នកបង្កើតរហូតដល់អ្នកផលិត អ្នកប្រើប្រាស់ រហូតដល់រដ្ឋាភិបាល និងប្រព័ន្ធពហុភាគី។

ខណៈពេលដែលគោលការណ៍កម្រិតខ្ពស់ត្រូវបានប្រកាសឱ្យប្រើដោយអង្គការយូណេស្កូ អង្គការ OECD គណៈកម្មការអឺរ៉ុប និងអង្គការសហប្រជាជាតិ ក្នុងចំណោមអ្នកដទៃទៀត និងការពិភាក្សាកម្រិតខ្ពស់ជាច្រើននៅតែបន្តទាក់ទងនឹងបញ្ហាអភិបាលកិច្ច បទប្បញ្ញត្តិ ក្រមសីលធម៌ និងសុវត្ថិភាពដែលមានសក្តានុពលនោះ មានគម្លាតធំរវាងបញ្ហាទាំងនេះ។ គោលការណ៍ និងការគ្រប់គ្រង ឬក្របខណ្ឌច្បាប់។ នេះចាំបាច់ត្រូវដោះស្រាយ។

ជាចំណុចចាប់ផ្តើម ISC ពិចារណាលើការបង្កើតនិក្ខេបបទនៃការពិចារណាដែលអ្នកអភិវឌ្ឍន៍ និយតករ ទីប្រឹក្សាគោលនយោបាយ អ្នកប្រើប្រាស់ ឬអ្នកធ្វើការសម្រេចចិត្តអាចយោងបាន។ ដោយមើលឃើញពីផលប៉ះពាល់យ៉ាងទូលំទូលាយនៃបច្ចេកវិទ្យាទាំងនេះ និក្ខេបបទបែបនេះត្រូវតែគិតគូរពីចំនួនសរុបនៃផលប៉ះពាល់ជាជាងការផ្តោតអារម្មណ៍ចង្អៀត។ ការបែកខ្ញែកជាសកលកំពុងកើនឡើងដោយសារតែឥទ្ធិពលនៃផលប្រយោជន៍ភូមិសាស្ត្រលើការសម្រេចចិត្ត ហើយដោយសារភាពបន្ទាន់នៃបច្ចេកវិទ្យានេះ វាចាំបាច់សម្រាប់សំឡេងឯករាជ្យ និងអព្យាក្រឹត ដើម្បីបន្តធ្វើជាជើងឯកនូវវិធីសាស្រ្តបង្រួបបង្រួម និងរួមបញ្ចូល។


1) Hindustan Times ។ 2023. G20 ត្រូវតែបង្កើតក្រុមអន្តរជាតិស្តីពីការផ្លាស់ប្តូរបច្ចេកវិទ្យា។
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) ច្បាប់ស៊ើបការណ៍សម្ងាត់របស់សហភាពអឺរ៉ុប។ 2023. https://artificialintelligenceact.eu

ការអភិវឌ្ឍនៃគ្រោងការណ៍វិភាគ

អាយអេសស៊ី គឺជាអង្គការក្រៅរដ្ឋាភិបាលសកលដំបូងដែលរួមបញ្ចូលវិទ្យាសាស្ត្រធម្មជាតិ និងសង្គម។ ការឈានទៅដល់ជាសាកល និងវិន័យរបស់វាមានន័យថា វាត្រូវបានដាក់យ៉ាងល្អដើម្បីបង្កើតដំបូន្មានឯករាជ្យ និងពាក់ព័ន្ធជាសាកល ដើម្បីជូនដំណឹងអំពីជម្រើសដ៏ស្មុគស្មាញនាពេលខាងមុខ ជាពិសេសដោយសារតែសំឡេងបច្ចុប្បន្ននៅក្នុងវេទិកានេះភាគច្រើនមកពីឧស្សាហកម្ម ឬពីសហគមន៍នយោបាយ និងសហគមន៍នៃមហាអំណាចបច្ចេកវិទ្យាធំៗ។

បន្ទាប់ពីរយៈពេលនៃការពិភាក្សាយ៉ាងទូលំទូលាយ ដែលរួមបញ្ចូលការពិចារណាលើដំណើរការវាយតម្លៃក្រៅរដ្ឋាភិបាល ISC បានសន្និដ្ឋានថាការរួមចំណែកដ៏មានប្រយោជន៍បំផុតរបស់វាគឺដើម្បីបង្កើតក្របខ័ណ្ឌវិភាគដែលមានលក្ខណៈប្រែប្រួលដែលអាចប្រើជាមូលដ្ឋានសម្រាប់ការពិភាក្សា និងការសម្រេចចិត្តដោយមនុស្សទាំងអស់។ ភាគីពាក់ព័ន្ធ រួមទាំងក្នុងអំឡុងពេលដំណើរការវាយតម្លៃផ្លូវការណាមួយដែលលេចឡើង។

ក្របខណ្ឌវិភាគបឋម ដែលត្រូវបានចេញផ្សាយសម្រាប់ការពិភាក្សា និងមតិកែលម្អក្នុងខែតុលា ឆ្នាំ 2023 បានយកទម្រង់នៃបញ្ជីត្រួតពិនិត្យដែលត្រូវបានរចនាឡើងសម្រាប់ប្រើប្រាស់ដោយទាំងស្ថាប័នរដ្ឋាភិបាល និងមិនមែនរដ្ឋាភិបាល។ ក្របខ័ណ្ឌនេះបានកំណត់ និងស្វែងយល់ពីសក្តានុពលនៃបច្ចេកវិទ្យាដូចជា AI និងឧបករណ៍ចម្លងរបស់វាតាមរយៈកញ្ចក់ធំទូលាយដែលគ្របដណ្តប់លើសុខុមាលភាពមនុស្ស និងសង្គម ព្រមទាំងកត្តាខាងក្រៅដូចជាសេដ្ឋកិច្ច នយោបាយ បរិស្ថាន និងសន្តិសុខ។ ទិដ្ឋភាពមួយចំនួននៃបញ្ជីត្រួតពិនិត្យអាចមានភាពពាក់ព័ន្ធជាងផ្នែកផ្សេងទៀត អាស្រ័យលើបរិបទ ប៉ុន្តែការសម្រេចចិត្តកាន់តែប្រសើរឡើងហាក់ដូចជាទំនងជាប្រសិនបើដែនទាំងអស់ត្រូវបានពិចារណា បើទោះបីជាមួយចំនួនអាចត្រូវបានកំណត់យ៉ាងឆាប់រហ័សថាមិនពាក់ព័ន្ធក្នុងករណីពិសេសក៏ដោយ។ នេះគឺជាតម្លៃដើមនៃវិធីសាស្រ្តបញ្ជីត្រួតពិនិត្យ។

ក្របខ័ណ្ឌបឋមបានមកពីការងារ និងការគិតពីមុន រួមទាំងរបាយការណ៍របស់បណ្តាញអន្តរជាតិសម្រាប់ដំបូន្មានវិទ្យាសាស្ត្ររដ្ឋាភិបាល (INGSA) ស្តីពីសុខុមាលភាពឌីជីថល 3 និងក្របខ័ណ្ឌ OECD សម្រាប់ចំណាត់ថ្នាក់នៃប្រព័ន្ធ AI 4 ដើម្បីបង្ហាញពីចំនួនសរុបនៃឱកាស ហានិភ័យ និងផលប៉ះពាល់សក្តានុពល។ នៃ AI ។ ផលិតផលពីមុនទាំងនេះត្រូវបានដាក់កម្រិតបន្ថែមទៀតនៅក្នុងចេតនារបស់ពួកគេដែលផ្តល់ពេលវេលា និងបរិបទរបស់ពួកគេ។ វាមានតំរូវការសម្រាប់ក្របខណ្ឌដែលបង្ហាញពីបញ្ហាពេញលេញទាំងក្នុងរយៈពេលខ្លី និងរយៈពេលវែង។

ចាប់តាំងពីការចេញផ្សាយរបស់ខ្លួន ឯកសារពិភាក្សាបានទទួលការគាំទ្រយ៉ាងសំខាន់ពីអ្នកជំនាញ និងអ្នកបង្កើតគោលនយោបាយជាច្រើន។ មនុស្សជាច្រើនបានគាំទ្រជាពិសេសចំពោះអនុសាសន៍ដើម្បីបង្កើតក្របខ័ណ្ឌសម្របខ្លួនដែលអនុញ្ញាតឱ្យមានការពិចារណាដោយចេតនា និងសកម្មអំពីហានិភ័យ និងផលប៉ះពាល់នៃបច្ចេកវិទ្យា ហើយក្នុងការធ្វើដូច្នេះ តែងតែគិតគូរពីទំហំសរុបពីបុគ្គលទៅសង្គម និងប្រព័ន្ធ។

ការសង្កេតសំខាន់មួយដែលបានធ្វើឡើងតាមរយៈមតិកែលម្អគឺការទទួលស្គាល់ថាផលប៉ះពាល់មួយចំនួនដែលត្រូវបានពិចារណានៅក្នុងក្របខ័ណ្ឌគឺមានលក្ខណៈចម្រុះ និងពង្រីកនៅទូទាំងប្រភេទជាច្រើន។ ជាឧទាហរណ៍ ពត៌មានមិនពិតអាចត្រូវបានពិចារណាពីកញ្ចក់បុគ្គល និងភូមិសាស្ត្រ។ ដូច្នេះ ផលវិបាកនឹងមានលក្ខណៈទូលំទូលាយ។

ជម្រើសដើម្បីរួមបញ្ចូលករណីសិក្សា ឬគំរូដើម្បីសាកល្បងក្របខ័ណ្ឌក៏ត្រូវបានណែនាំផងដែរ។ វាអាចត្រូវបានប្រើដើម្បីបង្កើតគោលការណ៍ណែនាំដើម្បីបង្ហាញពីរបៀបដែលវាអាចត្រូវបានប្រើនៅក្នុងការអនុវត្តក្នុងបរិបទផ្សេងៗគ្នា។ ទោះជាយ៉ាងណាក៏ដោយ នេះនឹងក្លាយជាកិច្ចការសំខាន់មួយ ហើយអាចកំណត់ពីរបៀបដែលក្រុមផ្សេងៗយល់ឃើញពីការប្រើប្រាស់ក្របខ័ណ្ឌនេះ។ វាត្រូវបានធ្វើបានល្អបំផុតដោយអ្នកបង្កើតគោលនយោបាយ ដែលធ្វើការជាមួយអ្នកជំនាញនៅក្នុងយុត្តាធិការ ឬបរិបទជាក់លាក់។

ចាប់តាំងពីខែតុលា ឆ្នាំ 2023 មក មានគំនិតផ្តួចផ្តើមជាតិ និងពហុភាគីសំខាន់ៗជាច្រើន ដោយមានការពិចារណាបន្ថែមអំពីក្រមសីលធម៌ និងសុវត្ថិភាពរបស់ AI ។ ផលប៉ះពាល់នៃ AI លើភាពសុចរិតនៃប្រព័ន្ធសំខាន់ៗមួយចំនួនរបស់យើង រួមទាំងហិរញ្ញវត្ថុ រដ្ឋាភិបាល ច្បាប់ និងការអប់រំ ព្រមទាំងប្រព័ន្ធចំណេះដឹងផ្សេងៗគ្នា (រួមទាំងចំណេះដឹងផ្នែកវិទ្យាសាស្ត្រ និងជនជាតិដើមភាគតិច) គឺមានការព្រួយបារម្ភកាន់តែខ្លាំងឡើង។ ក្របខណ្ឌដែលបានកែប្រែនេះឆ្លុះបញ្ចាំងបន្ថែមទៀតអំពីទិដ្ឋភាពទាំងនេះ។

មតិកែលម្អដែលទទួលបានរហូតមកដល់បច្ចុប្បន្នត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងកំណែដែលបានកែសម្រួលនៃក្របខ័ណ្ឌវិភាគ ដែលឥឡូវនេះត្រូវបានចេញផ្សាយជាការណែនាំដល់អ្នកបង្កើតគោលនយោបាយ។

ខណៈពេលដែលក្របខ័ណ្ឌត្រូវបានបង្ហាញនៅក្នុងបរិបទនៃ AI និងបច្ចេកវិទ្យាដែលពាក់ព័ន្ធ វាអាចផ្ទេរភ្លាមៗទៅការពិចារណានៃបច្ចេកវិទ្យាដែលកំពុងរីកចម្រើនយ៉ាងឆាប់រហ័សផ្សេងទៀតដូចជា quantum និងជីវវិទ្យាសំយោគ។


3) Gluckman, P. and Allen, K. 2018. ការយល់ដឹងអំពីសុខុមាលភាពនៅក្នុងបរិបទនៃការផ្លាស់ប្តូរឌីជីថលយ៉ាងឆាប់រហ័ស និងពាក់ព័ន្ធ។ INGSA
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
៤) OECD ។ 4. ក្របខណ្ឌ OECD សម្រាប់ការចាត់ថ្នាក់នៃប្រព័ន្ធ AI ។ OECD Digital Economy Papers, លេខ ៣២៣,#។ ប៉ារីស ការបោះពុម្ព OECD ។
https://oecd.ai/en/classificatio

ក្របខ័ណ្ឌ

តារាងខាងក្រោមបង្ហាញពីវិមាត្រនៃក្របខ័ណ្ឌវិភាគដែលដាក់។ ឧទាហរណ៍ត្រូវបានផ្តល់ជូនដើម្បីបង្ហាញពីមូលហេតុដែលដែននីមួយៗអាចមានបញ្ហា។ នៅក្នុងបរិបទ ក្របខ័ណ្ឌនឹងតម្រូវឱ្យមានការពង្រីកដែលពាក់ព័ន្ធតាមបរិបទ។ វាក៏សំខាន់ផងដែរក្នុងការបែងចែករវាងបញ្ហាទូទៅដែលកើតឡើងកំឡុងពេលអភិវឌ្ឍវេទិកា និងបញ្ហាដែលអាចនឹងលេចឡើងក្នុងអំឡុងពេលកម្មវិធីជាក់លាក់។ គ្មានការពិចារណាណាមួយដែលរួមបញ្ចូលនៅទីនេះ គួរតែត្រូវបានចាត់ទុកជាអាទិភាព ហើយដូច្នេះ ទាំងអស់គួរតែត្រូវបានពិនិត្យ។

បញ្ហា​ត្រូវ​បាន​ចាត់​ជា​ក្រុម​យ៉ាង​ទូលំទូលាយ​ទៅ​ជា​ប្រភេទ​ដូច​បាន​រៀបរាប់​ខាង​ក្រោម៖

  • សុខុមាលភាព (រាប់បញ្ចូលទាំងបុគ្គល ឬខ្លួនឯង សង្គម ជីវិតសង្គម និងជីវិតពលរដ្ឋ)
  • ពាណិជ្ជកម្ម និងសេដ្ឋកិច្ច
  • បរិស្ថាន
  • ភូមិសាស្ត្រនយោបាយ និងភូមិសាស្ត្រ
  • បច្ចេកវិទ្យា (លក្ខណៈប្រព័ន្ធ ការរចនា និងការប្រើប្រាស់)

តារាងរៀបរាប់លម្អិតអំពីទំហំដែលប្រហែលជាត្រូវយកមកពិចារណានៅពេលវាយតម្លៃបច្ចេកវិទ្យាថ្មី។

🔴 INGSA ។ 2018. ការយល់ដឹងអំពីសុខុមាលភាពនៅក្នុងបរិបទនៃការផ្លាស់ប្តូរឌីជីថលយ៉ាងឆាប់រហ័ស និងពាក់ព័ន្ធ។
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

🟢 អ្នកពណ៌នាថ្មី (ប្រភពតាមរយៈការពិគ្រោះយោបល់ និងមតិកែលម្អ និងការពិនិត្យអក្សរសិល្ប៍)

🟡 ក្របខ័ណ្ឌ OECD សម្រាប់ចំណាត់ថ្នាក់នៃប្រព័ន្ធ AI៖ ឧបករណ៍សម្រាប់គោលនយោបាយ AI ប្រកបដោយប្រសិទ្ធភាព។
https://oecd.ai/en/classification

វិមាត្រនៃផលប៉ះពាល់៖ បុគ្គល / ខ្លួនឯង

លក្ខណៈវិនិច្ឆ័យឧទាហរណ៍នៃរបៀបដែលនេះអាចនឹងត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការវិភាគ
🟡សមត្ថភាព AI របស់អ្នកប្រើប្រាស់តើ​អ្នក​ប្រើ​ទំនង​ជា​អ្នក​ប្រើ​ដែល​នឹង​ធ្វើ​អន្តរកម្ម​ជាមួយ​ប្រព័ន្ធ​មាន​សមត្ថភាព និង​ដឹង​អំពី​លក្ខណៈ​សម្បត្តិ​របស់​ប្រព័ន្ធ​កម្រិត​ណា? តើ​ពួកគេ​នឹង​ត្រូវ​បាន​ផ្តល់​ព័ត៌មាន​ពាក់ព័ន្ធ​និង​ការ​ប្រុង​ប្រយ័ត្ន​របស់​អ្នក​ប្រើ​ដោយ​របៀប​ណា?
🟡 ភាគីពាក់ព័ន្ធដែលរងផលប៉ះពាល់តើអ្នកណាខ្លះជាភាគីពាក់ព័ន្ធសំខាន់ៗ ដែលនឹងត្រូវបានរងផលប៉ះពាល់ដោយប្រព័ន្ធ (បុគ្គល សហគមន៍ ជនងាយរងគ្រោះ កម្មករតាមវិស័យ កុមារ អ្នកបង្កើតគោលនយោបាយ អ្នកជំនាញ។ល។)?
🟡 ជម្រើសតើ​អ្នក​ប្រើ​បាន​ផ្តល់​នូវ​ឱកាស​ក្នុង​ការ​ដក​ខ្លួន​ចេញ​ពី​ប្រព័ន្ធ ឬ​តើ​ពួកគេ​ត្រូវ​បាន​ផ្តល់​ឱកាស​ក្នុង​ការ​ប្រជែង ឬ​កែ​តម្រូវ​លទ្ធផល​ឬ​ទេ?
🟡ហានិភ័យដល់សិទ្ធិមនុស្ស និងតម្លៃប្រជាធិបតេយ្យតើប្រព័ន្ធនេះមានផលប៉ះពាល់ជាមូលដ្ឋានលើសិទ្ធិមនុស្ស រួមទាំងប៉ុន្តែមិនកំណត់ចំពោះឯកជនភាព សេរីភាពនៃការបញ្ចេញមតិ យុត្តិធម៌ ការមិនរើសអើងជាដើម។
🟡ផលប៉ះពាល់ដែលអាចកើតមានលើសុខុមាលភាពរបស់មនុស្សតើតំបន់ប៉ះពាល់ដល់ប្រព័ន្ធទាក់ទងនឹងសុខុមាលភាពរបស់អ្នកប្រើប្រាស់ម្នាក់ៗ (គុណភាពការងារ ការអប់រំ អន្តរកម្មសង្គម សុខភាពផ្លូវចិត្ត អត្តសញ្ញាណ បរិស្ថាន។ល។)?
🟡 សក្តានុពលសម្រាប់ការផ្លាស់ទីលំនៅពលកម្មមនុស្សតើមានសក្តានុពលសម្រាប់ប្រព័ន្ធដើម្បីធ្វើស្វ័យប្រវត្តិកម្មភារកិច្ច ឬមុខងារដែលត្រូវបានប្រតិបត្តិដោយមនុស្សដែរឬទេ? បើ​ដូច្នេះ តើ​មាន​ផល​វិបាក​អ្វី​ខ្លះ?
🟡 សក្តានុពលសម្រាប់អត្តសញ្ញាណ តម្លៃ ឬការរៀបចំចំណេះដឹងតើប្រព័ន្ធត្រូវបានរចនាឡើង ឬមានសក្តានុពលអាចរៀបចំអត្តសញ្ញាណរបស់អ្នកប្រើប្រាស់ ឬ
កំណត់តម្លៃ ឬផ្សព្វផ្សាយព័ត៌មានមិនពិត?
🔴 ឱកាសសម្រាប់ការបញ្ចេញមតិដោយខ្លួនឯង និងការអនុវត្តជាក់ស្តែងតើ​មាន​សក្ដានុពល​សម្រាប់​សិល្បៈ​និង​ការ​សង្ស័យ​លើ​ខ្លួន​ឯង​ទេ? តើមានសក្តានុពលសម្រាប់ការមិនពិតឬ
ការទាមទារជំនាញដែលមិនអាចផ្ទៀងផ្ទាត់បាន?
🔴 វិធានការនៃតម្លៃខ្លួនឯងតើ​មាន​សម្ពាធ​ក្នុង​ការ​បង្ហាញ​ខ្លួន​ឯង​ដែល​មាន​ឧត្តមគតិ​ទេ? ស្វ័យប្រវត្តិកម្មអាចជំនួសអារម្មណ៍មួយ។
នៃការបំពេញផ្ទាល់ខ្លួន? តើមានសម្ពាធក្នុងការប្រកួតប្រជែងជាមួយប្រព័ន្ធនៅក្នុង
កន្លែងធ្វើការ? តើកេរ្តិ៍ឈ្មោះបុគ្គលពិបាកការពារប្រឆាំងនឹងព័ត៌មានមិនពិតមែនទេ?
🔴 ភាពឯកជនតើ​មាន​ទំនួល​ខុស​ត្រូវ​សម្រាប់​ការ​ការពារ​ឯកជនភាព ហើយ​តើ​មាន​ដែរ​ឬ​ទេ?
ការសន្មត់ត្រូវបានធ្វើឡើងអំពីរបៀបដែលទិន្នន័យផ្ទាល់ខ្លួនត្រូវបានប្រើប្រាស់?
🔴ស្វ័យភាពតើប្រព័ន្ធ AI អាចប៉ះពាល់ដល់ស្វ័យភាពរបស់មនុស្សដោយបង្កើតការពឹងផ្អែកលើសដោយ
អ្នកប្រើប្រាស់ចុងក្រោយ?
🔴ការអភិវឌ្ឍន៍មនុស្សតើមានផលប៉ះពាល់លើការទទួលបានជំនាញសំខាន់ៗសម្រាប់ការអភិវឌ្ឍន៍មនុស្សដែរឬទេ ដូចជា
មុខងារប្រតិបត្តិ ឬជំនាញអន្តរបុគ្គល ឬការផ្លាស់ប្តូរពេលវេលាដែលប៉ះពាល់ដល់ការយកចិត្តទុកដាក់
ការសិក្សា ការអភិវឌ្ឍន៍បុគ្គលិកលក្ខណៈ កង្វល់សុខភាពផ្លូវចិត្តជាដើម។
🔴 ការថែទាំសុខភាពផ្ទាល់ខ្លួនតើមានការអះអាងពីការធ្វើរោគវិនិច្ឆ័យដោយខ្លួនឯង ឬដំណោះស្រាយថែទាំសុខភាពផ្ទាល់ខ្លួនទេ? បើ​ដូចនេះ,
តើពួកគេមានសុពលភាពតាមស្តង់ដារបទប្បញ្ញត្តិទេ?
🔴សុខភាពផ្លូវចិត្តតើមានហានិភ័យនៃការកើនឡើងការថប់បារម្ភ ភាពឯកោ ឬបញ្ហាសុខភាពផ្លូវចិត្តផ្សេងទៀត ឬ
តើ​បច្ចេកវិទ្យា​អាច​ជួយ​សម្រាល​ផល​ប៉ះពាល់​បែប​នេះ​បាន​ទេ?
🟢 ការវិវត្តន៍របស់មនុស្សគំរូភាសាធំៗ និងបញ្ញាទូទៅសិប្បនិម្មិតអាចផ្លាស់ប្តូរ
ដំណើរវិវត្តន៍របស់មនុស្ស?
🟢អន្តរកម្មមនុស្ស-ម៉ាស៊ីនតើការប្រើប្រាស់អាចនាំទៅរកភាពគ្មានជំនាញ និងការពឹងផ្អែកលើពេលវេលាសម្រាប់បុគ្គលដែរឬទេ? មាន
តើមានផលប៉ះពាល់លើអន្តរកម្មរបស់មនុស្សទេ?
5) លក្ខណៈវិនិច្ឆ័យបច្ចេកវិជ្ជាដែលបានពិចារណាក្នុងក្របខណ្ឌគឺជាពិសេសសម្រាប់ AI ហើយនឹងត្រូវកែសម្រួលសម្រាប់បច្ចេកវិទ្យាផ្សេងទៀតតាមការសមស្រប។

វិមាត្រនៃផលប៉ះពាល់៖ សង្គម / ជីវិតសង្គម

លក្ខណៈវិនិច្ឆ័យ ឧទាហរណ៍នៃរបៀបដែលនេះអាចនឹងត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការវិភាគ
🔴តម្លៃសង្គមតើប្រព័ន្ធមានការផ្លាស់ប្តូរជាមូលដ្ឋាននៃធម្មជាតិនៃសង្គម បើកដំណើរការធម្មតានៃគំនិតដែលត្រូវបានចាត់ទុកថាប្រឆាំងនឹងសង្គមពីមុន ឬរំលោភលើតម្លៃសង្គមនៃវប្បធម៌ដែលវាត្រូវបានអនុវត្ត?
🔴អន្តរកម្មសង្គមតើមានឥទ្ធិពលលើទំនាក់ទំនងរបស់មនុស្សដែលមានអត្ថន័យ រួមទាំងទំនាក់ទំនងផ្លូវអារម្មណ៍ដែរឬទេ?
🔴សុខភាពប្រជាជនតើ​មាន​សក្ដានុពល​សម្រាប់​ប្រព័ន្ធ​ក្នុង​ការ​ជំរុញ ឬ​បំផ្លាញ​បំណង​សុខភាព​ប្រជាជន​ដែរ​ឬ​ទេ?
🔴 ការបង្ហាញវប្បធម៌តើការកើនឡើងនៃការអនុលោមតាមវប្បធម៌ ឬការរើសអើងទំនងជាឬពិបាកដោះស្រាយ? តើការពឹងផ្អែកលើប្រព័ន្ធសម្រាប់ការសម្រេចចិត្តមិនរាប់បញ្ចូល ឬកាត់បន្ថយចំណងទាក់ទងផ្នែកវប្បធម៌នៃសង្គមទេ?
🔴 ការអប់រំសាធារណៈតើមានឥទ្ធិពលលើតួនាទីគ្រូបង្រៀន ឬស្ថាប័នអប់រំដែរឬទេ? តើប្រព័ន្ធនេះសង្កត់ធ្ងន់ ឬកាត់បន្ថយការបែងចែកឌីជីថល និងវិសមភាពក្នុងចំណោមសិស្ស? តើតម្លៃខាងក្នុងនៃចំនេះដឹង ឬការយល់ដឹងដ៏ត្រិះរិះពិចារណា ជឿនលឿន ឬធ្លាក់ចុះ?
🟢 ការពិតដែលបំភ្លៃតើ​វិធីសាស្ត្រ​ដែល​គេ​ប្រើ​ដើម្បី​ដឹង​ថា​អ្វី​ដែល​ពិត​នៅ​តែ​អាច​អនុវត្ត​បាន​ឬ? តើការយល់ឃើញនៃការពិតត្រូវបានសម្របសម្រួលទេ?

វិមាត្រនៃផលប៉ះពាល់៖ បរិបទសេដ្ឋកិច្ច (ពាណិជ្ជកម្ម)

លក្ខណៈវិនិច្ឆ័យឧទាហរណ៍នៃរបៀបដែលនេះអាចនឹងត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការវិភាគ
🟡 វិស័យឧស្សាហកម្មតើប្រព័ន្ធមួយណាដែលត្រូវដាក់ឱ្យប្រើប្រាស់ក្នុងវិស័យឧស្សាហកម្ម (ហិរញ្ញវត្ថុ កសិកម្ម ការថែទាំសុខភាព ការអប់រំ វិស័យការពារជាតិ។ល។)?
🟡 គំរូអាជីវកម្មតើ​ប្រព័ន្ធ​នេះ​ត្រូវ​បាន​ប្រើ​ក្នុង​មុខងារ​អាជីវកម្ម​មួយ​ណា ហើយ​ក្នុង​សមត្ថភាព​អ្វី? តើប្រព័ន្ធត្រូវបានប្រើប្រាស់នៅឯណា (ឯកជន សាធារណៈ មិនរកប្រាក់ចំណេញ)?
🟡 ប៉ះពាល់ដល់សកម្មភាពសំខាន់ៗ តើការរំខានដល់មុខងារ ឬសកម្មភាពរបស់ប្រព័ន្ធនឹងប៉ះពាល់ដល់សេវាកម្មសំខាន់ៗ ឬហេដ្ឋារចនាសម្ព័ន្ធសំខាន់ៗដែរឬទេ?
🟡 វិសាលភាពនៃការដាក់ពង្រាយតើប្រព័ន្ធត្រូវបានដាក់ពង្រាយយ៉ាងដូចម្តេច (ការប្រើប្រាស់តូចចង្អៀតនៅក្នុងអង្គភាពធៀបនឹងការរីករាលដាលទូទាំងប្រទេស/អន្តរជាតិ)?
🟡 ភាពចាស់ទុំខាងបច្ចេកទេសតើប្រព័ន្ធមានភាពចាស់ទុំខាងបច្ចេកទេសយ៉ាងណា?
🟢 អន្តរប្រតិបត្តិការ តើ​ទំនង​ជា​មាន​ស៊ីឡូ​ក្នុង​ប្រទេស ឬ​ជា​សាកល ដែល​រារាំង​ពាណិជ្ជកម្ម​សេរី និង​ប៉ះពាល់​ដល់​កិច្ចសហប្រតិបត្តិការ​ជាមួយ​ដៃគូ?
🟢 អធិបតេយ្យភាពបច្ចេកវិទ្យាតើបំណងប្រាថ្នាសម្រាប់ឥរិយាបទជំរុញអធិបតេយ្យភាពបច្ចេកវិទ្យា រួមទាំងការគ្រប់គ្រងលើខ្សែសង្វាក់ផ្គត់ផ្គង់ AI ទាំងមូលមែនទេ?
🔴 ការបែងចែកចំណូល និងកម្រិតសារពើពន្ធជាតិតើតួនាទីស្នូលរបស់រដ្ឋអធិបតេយ្យអាចត្រូវបានសម្របសម្រួល (ឧទាហរណ៍ ធនាគារបម្រុង) ដែរឬទេ? តើសមត្ថភាពរបស់រដ្ឋក្នុងការបំពេញតាមការរំពឹងទុក និងផលប៉ះពាល់របស់ប្រជាពលរដ្ឋ (សង្គម សេដ្ឋកិច្ច នយោបាយ។ល។) នឹងត្រូវបានជឿនលឿន ឬកាត់បន្ថយ?
🟢 ការបែងចែកឌីជីថល (ការបែងចែក AI) តើវិសមភាពឌីជីថលដែលមានស្រាប់កាន់តែធ្ងន់ធ្ងរ ឬបង្កើតថ្មី?

វិមាត្រនៃផលប៉ះពាល់៖ ជីវិតពលរដ្ឋ

លក្ខណៈវិនិច្ឆ័យឧទាហរណ៍នៃរបៀបដែលនេះអាចនឹងត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការវិភាគ
🔴 អភិបាលកិច្ច និងសេវាសាធារណៈតើយន្តការអភិបាលកិច្ច និងប្រព័ន្ធអភិបាលកិច្ចសកលអាចរងផលប៉ះពាល់ជាវិជ្ជមាន ឬអវិជ្ជមានដែរឬទេ?
🔴សារព័ត៌មានតើ​សុន្ទរកថា​សាធារណៈ​ទំនង​ជា​ក្លាយ​ជា​បន្ទាត់​រាង​ប៉ូល និង​មាន​កម្រិត​ប្រជាជន​ឬ​ទេ? តើ​មាន​ឥទ្ធិពល​លើ​កម្រិត​នៃ​ការ​ទុក​ចិត្ត​ក្នុង​អចលនវត្ថុ​ទី​៤​ដែរ​ឬ​ទេ? តើក្រមសីលធម៌ និងស្តង់ដារសុចរិតភាពអ្នកសារព័ត៌មានធម្មតានឹងរងផលប៉ះពាល់បន្ថែមទៀតទេ?
🔴 នីតិរដ្ឋតើវានឹងមានឥទ្ធិពលលើសមត្ថភាពក្នុងការកំណត់អត្តសញ្ញាណបុគ្គល ឬអង្គការដើម្បីទទួលខុសត្រូវ (ឧ. តើការទទួលខុសត្រូវប្រភេទណាដែលត្រូវប្រគល់ឱ្យក្បួនដោះស្រាយសម្រាប់លទ្ធផលអវិជ្ជមាន)? តើមានការបាត់បង់អធិបតេយ្យភាពដែលបានបង្កើតឡើង (បរិស្ថាន សារពើពន្ធ គោលនយោបាយសង្គម ក្រមសីលធម៌។ល។)?
🔴 ទំនាក់ទំនងនយោបាយ និងសង្គមតើ​មាន​លទ្ធភាព​នៃ​ទស្សនៈ​នយោបាយ​ដែល​មាន​ភាព​រឹងមាំ​ជាង​មុន និង​មាន​ឱកាស​តិច​សម្រាប់​ការ​កសាង​ការ​មូលមតិគ្នា​ដែរ​ឬ​ទេ? តើ​មាន​លទ្ធភាព​នៃ​ក្រុម​ដែល​មិន​សូវ​មាន​បន្ថែម​ទៀត​ទេ? តើ​ទម្រង់​នយោបាយ​គូបដិបក្ខ​ទំនង​ជា​មាន​ច្រើន​ឬ​តិច?
🟢 អាជ្ញាប័ណ្ណសង្គមតើមានការព្រួយបារម្ភអំពីឯកជនភាព បញ្ហាទំនុកចិត្ត និងកង្វល់ខាងសីលធម៌ដែលចាំបាច់ត្រូវពិចារណាសម្រាប់ការទទួលយកពីភាគីពាក់ព័ន្ធនៃការប្រើប្រាស់ដែរឬទេ?
🟢ចំណេះដឹងជនជាតិដើមភាគតិចតើចំណេះដឹង និងទិន្នន័យជនជាតិដើមភាគតិចអាចខូច ឬក្លែងបន្លំ? តើ​មាន​វិធានការ​គ្រប់គ្រាន់​ដើម្បី​ការពារ​ប្រឆាំង​នឹង​ការ​បំភាន់​ព័ត៌មាន​មិន​ពិត និង​ការ​កេងប្រវ័ញ្ច​ឬ​ទេ?
🟢 ប្រព័ន្ធវិទ្យាសាស្ត្រតើភាពត្រឹមត្រូវនៃការសិក្សា និងការស្រាវជ្រាវត្រូវបានសម្របសម្រួលទេ? តើមានការបាត់បង់ជំនឿលើវិទ្យាសាស្ត្រទេ? តើ​មាន​លទ្ធភាព​នៃ​ការ​ប្រើប្រាស់​ខុស ប្រើ​ហួសហេតុ ឬ​ការ​បំពាន​ដែរ​ឬ​ទេ? តើអ្វីជាផលវិបាកនៃការអនុវត្តវិទ្យាសាស្ត្រ?

វិមាត្រនៃផលប៉ះពាល់៖ បរិបទភូមិសាស្ត្រ/ភូមិសាស្ត្រនយោបាយ

លក្ខណៈវិនិច្ឆ័យឧទាហរណ៍នៃរបៀបដែលនេះអាចនឹងត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការវិភាគ
🟢 ការឃ្លាំមើលភាពជាក់លាក់តើប្រព័ន្ធត្រូវបានបណ្តុះបណ្តាលលើទិន្នន័យអាកប្បកិរិយា និងជីវសាស្រ្តរបស់បុគ្គល ហើយអាចប្រើដើម្បីកេងប្រវ័ញ្ចបុគ្គល ឬក្រុមបានទេ?
🟢 ការប្រកួតប្រជែងឌីជីថលតើតួអង្គរដ្ឋ ឬមិនមែនរដ្ឋ (ឧទាហរណ៍ក្រុមហ៊ុនបច្ចេកវិទ្យាធំៗ) អាចប្រើប្រព័ន្ធ និងទិន្នន័យដើម្បីយល់ និងគ្រប់គ្រងចំនួនប្រជាជន និងប្រព័ន្ធអេកូឡូស៊ីរបស់ប្រទេសផ្សេងទៀត ឬធ្វើឱ្យប៉ះពាល់ដល់ការគ្រប់គ្រងយុត្តាធិការដែរឬទេ?
🟢 ការប្រកួតប្រជែងភូមិសាស្ត្រនយោបាយតើប្រព័ន្ធនេះអាចជំរុញការប្រកួតប្រជែងរវាងប្រទេសជុំវិញការទាញយកទិន្នន័យបុគ្គល និងក្រុមសម្រាប់ផលប្រយោជន៍សេដ្ឋកិច្ច វេជ្ជសាស្ត្រ និងសន្តិសុខដែរឬទេ?
🟢 ការផ្លាស់ប្តូរនៅក្នុងមហាអំណាចពិភពលោកតើស្ថានភាពនៃជាតិ-រដ្ឋជាតួអង្គភូមិសាស្ត្រនយោបាយចម្បងរបស់ពិភពលោក ស្ថិតនៅក្រោមការគំរាមកំហែងដែរឬទេ? តើ​ក្រុមហ៊ុន​បច្ចេកវិទ្យា​កាន់​អំណាច​បាន​បម្រុង​ទុក​សម្រាប់​រដ្ឋ​ជាតិ​ហើយ​តើ​ពួកគេ​បាន​ក្លាយ​ជា​តួអង្គ​ឯករាជ្យ និង​អធិបតេយ្យភាព​ឬ​ទេ?
🟢ព័ត៌មានមិនពិតតើប្រព័ន្ធនេះជួយសម្រួលដល់ការផលិត និងការផ្សព្វផ្សាយព័ត៌មានមិនពិតដោយតួអង្គរដ្ឋ និងមិនមែនរដ្ឋ ដែលជះឥទ្ធិពលដល់ការរួបរួមសង្គម ការជឿទុកចិត្ត និងលទ្ធិប្រជាធិបតេយ្យដែរឬទេ?
🟢កម្មវិធីប្រើពីរតើ​មាន​លទ្ធភាព​សម្រាប់​ទាំង​ការ​ប្រើ​យោធា​ផង​ដែរ​ឬ​ទេ?
🟢 ការបែងចែកសណ្តាប់ធ្នាប់សកលតើស៊ីឡូ ឬក្រុមនៃបទប្បញ្ញត្តិ និងការអនុលោមតាមច្បាប់អាចអភិវឌ្ឍដែលរារាំងកិច្ចសហប្រតិបត្តិការ នាំទៅរកភាពមិនស៊ីសង្វាក់គ្នាក្នុងការអនុវត្ត និងបង្កើតកន្លែងសម្រាប់ជម្លោះដែរឬទេ?

វិមាត្រនៃផលប៉ះពាល់៖ បរិស្ថាន

លក្ខណៈវិនិច្ឆ័យឧទាហរណ៍នៃរបៀបដែលនេះអាចនឹងត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការវិភាគ
🟢 ការប្រើប្រាស់ថាមពល និងធនធាន (កាបូនឌីអុកស៊ីត)តើប្រព័ន្ធ និងតម្រូវការបង្កើនការប្រើប្រាស់ថាមពល និងធនធានលើសពីប្រសិទ្ធភាពដែលទទួលបានតាមរយៈកម្មវិធីដែរឬទេ?
🟢ប្រភពថាមពលតើថាមពលបានមកពីណាសម្រាប់ប្រព័ន្ធ (អាចកើតឡើងវិញ និងឥន្ធនៈហ្វូស៊ីល ។ល។)?

វិមាត្រនៃផលប៉ះពាល់៖ ទិន្នន័យ និងការបញ្ចូល

លក្ខណៈវិនិច្ឆ័យឧទាហរណ៍នៃរបៀបដែលនេះអាចនឹងត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការវិភាគ
🟡 ទិសដៅ និងការប្រមូលតើទិន្នន័យ និងការបញ្ចូលដែលប្រមូលបានដោយមនុស្ស ឧបករណ៍ចាប់សញ្ញាស្វ័យប្រវត្តិ ឬទាំងពីរ?
🟡 ភស្តុតាងនៃទិន្នន័យតើទិន្នន័យ និងការបញ្ចូលពីអ្នកជំនាញបានផ្តល់ អង្កេត សំយោគ ឬបានមកពី? តើមានការការពារទឹកជ្រាបដើម្បីបញ្ជាក់ភស្តុតាងទេ?
🟡 លក្ខណៈថាមវន្តនៃទិន្នន័យតើទិន្នន័យថាមវន្ត ឋិតិវន្ត ថាមវន្តត្រូវបានធ្វើបច្ចុប្បន្នភាពពីពេលមួយទៅពេលមួយ ឬតាមពេលវេលាពិត?
🟡 សិទ្ធិតើទិន្នន័យមានកម្មសិទ្ធិ សាធារណៈ ឬផ្ទាល់ខ្លួន (ទាក់ទងនឹងបុគ្គលដែលអាចកំណត់អត្តសញ្ញាណបាន)?
🟡 អត្តសញ្ញាណ និងទិន្នន័យផ្ទាល់ខ្លួនប្រសិនបើផ្ទាល់ខ្លួន តើទិន្នន័យត្រូវបានអនាមិក ឬក្លែងក្លាយ?
🟡 រចនាសម្ព័ន្ធទិន្នន័យតើទិន្នន័យមានរចនាសម្ព័ន្ធ ពាក់កណ្តាលរចនាសម្ព័ន្ធ ស្មុគស្មាញ ឬមិនមានរចនាសម្ព័ន្ធ?
🟡 ទម្រង់ទិន្នន័យតើទម្រង់ទិន្នន័យ និងទិន្នន័យមេតាមានលក្ខណៈស្តង់ដារ ឬមិនស្តង់ដារ?
🟡 មាត្រដ្ឋានទិន្នន័យតើមាត្រដ្ឋាននៃសំណុំទិន្នន័យគឺជាអ្វី?
🟡 ភាពសមស្រប និងគុណភាពនៃទិន្នន័យ តើសំណុំទិន្នន័យសមនឹងគោលបំណងទេ? តើទំហំគំរូគ្រប់គ្រាន់ទេ? តើ​វា​តំណាង​និង​ពេញលេញ​ឬ​ទេ? តើ​ទិន្នន័យ​មាន​សំឡេង​យ៉ាង​ណា? តើ​វា​ងាយ​នឹង​មាន​កំហុស​ឬ?

វិមាត្រនៃផលប៉ះពាល់: គំរូ

លក្ខណៈវិនិច្ឆ័យឧទាហរណ៍នៃរបៀបដែលនេះអាចនឹងត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការវិភាគ
🟡 ភាពអាចរកបាននៃព័ត៌មានតើមានព័ត៌មានអំពីគំរូរបស់ប្រព័ន្ធដែរឬទេ?
🟡 ប្រភេទនៃគំរូ AIតើគំរូនិមិត្តសញ្ញា (ច្បាប់បង្កើតដោយមនុស្ស) ស្ថិតិ (ប្រើទិន្នន័យ) ឬកូនកាត់?
🟡 សិទ្ធិទាក់ទងនឹងគំរូតើគំរូប្រភពបើកចំហ ឬកម្មសិទ្ធិ ខ្លួនឯង ឬភាគីទីបីត្រូវបានគ្រប់គ្រង?
🟡 តែមួយនៃម៉ូដែលច្រើន។តើ​ប្រព័ន្ធ​មាន​គំរូ​មួយ​ឬ​ម៉ូដែល​ដែល​មាន​ទំនាក់ទំនង​គ្នា​ច្រើន?
🟡 បង្កើត ឬរើសអើងតើគំរូបង្កើត រើសអើង ឬទាំងពីរ?
🟡 អគារគំរូតើប្រព័ន្ធរៀនដោយផ្អែកលើច្បាប់ដែលសរសេរដោយមនុស្ស ពីទិន្នន័យ តាមរយៈការរៀនដែលមានការត្រួតពិនិត្យ ឬតាមរយៈការរៀនពង្រឹង?
🟡 ការវិវត្តន៍គំរូ (AI drift)តើគំរូវិវត្តន៍ និង/ឬទទួលបានសមត្ថភាពពីអន្តរកម្មជាមួយទិន្នន័យក្នុងវិស័យនេះទេ?
🟡 ការរៀនសហព័ន្ធ ឬកណ្តាលតើគំរូត្រូវបានបណ្តុះបណ្តាលនៅកណ្តាល ឬនៅក្នុងម៉ាស៊ីនមេក្នុងស្រុកមួយចំនួន ឬឧបករណ៍ 'គែម'?
🟡 ការអភិវឌ្ឍន៍ / ថែទាំតើម៉ូដែលមានលក្ខណៈជាសកល អាចប្ដូរតាមបំណង ឬតម្រូវតាមទិន្នន័យរបស់តួអង្គ AI?
🟡 កំណត់ ឬប្រូបាប៊ីលីតេ តើ​គំរូ​ត្រូវ​បាន​ប្រើ​ក្នុង​លក្ខណៈ​កំណត់​ឬ​ប្រូបាប៊ីលីតេ?
🟡 តម្លាភាពគំរូ តើព័ត៌មានមានសម្រាប់អ្នកប្រើប្រាស់ ដើម្បីអនុញ្ញាតឱ្យពួកគេយល់អំពីលទ្ធផលគំរូ និងដែនកំណត់ ឬប្រើប្រាស់ឧបសគ្គទេ?
🟢 ដែនកំណត់នៃការគណនាតើ​មាន​កម្រិត​នៃ​ការ​គណនា​សម្រាប់​ប្រព័ន្ធ​ទេ? តើ​វា​អាច​ទស្សន៍ទាយ​អំពី​ការ​លោត​សមត្ថភាព ឬ​ច្បាប់​ធ្វើ​មាត្រដ្ឋាន​ទេ?

វិមាត្រនៃផលប៉ះពាល់៖ ភារកិច្ចនិងលទ្ធផល

លក្ខណៈវិនិច្ឆ័យឧទាហរណ៍នៃរបៀបដែលនេះអាចនឹងត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការវិភាគ
🟡 កិច្ចការដែលអនុវត្តដោយប្រព័ន្ធតើប្រព័ន្ធដំណើរការអ្វីខ្លះ (ការទទួលស្គាល់ ការរកឃើញព្រឹត្តិការណ៍ ការព្យាករណ៍ជាដើម)?
🟡 រួមបញ្ចូលគ្នានូវកិច្ចការ និងសកម្មភាពតើប្រព័ន្ធរួមបញ្ចូលគ្នានូវកិច្ចការ និងសកម្មភាពមួយចំនួន (ប្រព័ន្ធបង្កើតមាតិកា ប្រព័ន្ធស្វយ័ត ប្រព័ន្ធគ្រប់គ្រង។ល។)?
🟡 កម្រិតស្វ័យភាពរបស់ប្រព័ន្ធ តើ​សកម្មភាព​របស់​ប្រព័ន្ធ​មាន​ស្វ័យភាព​ប៉ុណ្ណា ហើយ​តើ​មនុស្ស​មាន​តួនាទី​អ្វី?
🟡 កម្រិតនៃការចូលរួមរបស់មនុស្សតើមានការចូលរួមរបស់មនុស្សមួយចំនួនដើម្បីត្រួតពិនិត្យសកម្មភាពទូទៅនៃប្រព័ន្ធ AI និងសមត្ថភាពក្នុងការសម្រេចចិត្តនៅពេលណា និងរបៀបប្រើប្រាស់ប្រព័ន្ធ AI ក្នុងស្ថានភាពណាមួយទេ?
🟡 កម្មវិធីស្នូលតើប្រព័ន្ធនេះជាកម្មសិទ្ធិរបស់ផ្នែកកម្មវិធីស្នូលដូចជា បច្ចេកវិទ្យាភាសាមនុស្ស ចក្ខុវិស័យកុំព្យូទ័រ ស្វ័យប្រវត្តិកម្ម និង/ឬការបង្កើនប្រសិទ្ធភាព ឬមនុស្សយន្ត?
🟡 ការវាយតម្លៃតើស្តង់ដារ ឬវិធីសាស្រ្តមានសម្រាប់វាយតម្លៃលទ្ធផលប្រព័ន្ធទេ?

តើ​ក្របខ័ណ្ឌ​នេះ​អាច​ត្រូវ​បាន​ប្រើ​ដោយ​របៀប​ណា?

ក្របខណ្ឌនេះអាចត្រូវបានប្រើតាមវិធីជាច្រើន រួមទាំង៖

  • ដើម្បីភ្ជាប់គម្លាតរវាងគោលការណ៍កម្រិតខ្ពស់ និងការវាយតម្លៃសម្រាប់គោលបំណងបទប្បញ្ញត្តិ ឬអភិបាលកិច្ច។ ក្របខណ្ឌនេះអាចគាំទ្រដល់ចំណុចនេះដោយបង្កើតការចាត់ថ្នាក់ទូទៅដែលមានសុពលភាពនៃជួរនៃបញ្ហាដែលសមនឹងការពិចារណាដោយភាគីពាក់ព័ន្ធជាមូលដ្ឋានដើម្បីជូនដំណឹង និងបង្កើតការគិតបន្ថែមទៀត។ ជាឧទាហរណ៍ នៅថ្នាក់ជាតិ ក្របខណ្ឌអាចត្រូវបានប្រើប្រាស់ជាឧបករណ៍មួយដោយរដ្ឋាភិបាល ដោយសារវាបង្កើតយុទ្ធសាស្ត្រ និងគោលនយោបាយជាតិ AI ដើម្បីបង្កើតមូលដ្ឋានរួមនៃហានិភ័យ និងឱកាសនៅទូទាំងក្រុមអ្នកពាក់ព័ន្ធ។
  • ដើម្បីជូនដំណឹងអំពីការវាយតម្លៃផលប៉ះពាល់។ ច្បាប់ AI របស់សហភាពអឺរ៉ុបតម្រូវឱ្យអង្គការដែលផ្តល់ឧបករណ៍ AI ឬទទួលយក AI នៅក្នុងដំណើរការរបស់ពួកគេដើម្បីធ្វើការវាយតម្លៃផលប៉ះពាល់ដើម្បីកំណត់ពីហានិភ័យនៃការផ្តួចផ្តើមរបស់ពួកគេ និងអនុវត្តវិធីសាស្រ្តគ្រប់គ្រងហានិភ័យសមស្រប។ ក្របខណ្ឌដែលបានបង្ហាញនៅទីនេះអាចប្រើជាមូលដ្ឋានគ្រឹះសម្រាប់រឿងនេះ។
  • ដើម្បីជូនដំណឹងអំពីការស្កេនផ្តេកសម្រាប់ហានិភ័យ និងសេណារីយ៉ូនាពេលអនាគត។ ការចាត់ថ្នាក់នៃហានិភ័យនៅក្នុងរបាយការណ៍បណ្តោះអាសន្នរបស់ស្ថាប័នប្រឹក្សា AI របស់អង្គការសហប្រជាជាតិត្រូវបានតម្រឹមយ៉ាងទូលំទូលាយទៅនឹងស៊ុមដែលបានបង្ហាញនៅក្នុងក្របខ័ណ្ឌនៅទីនេះ។ មានឱកាសមួយសម្រាប់ក្របខណ្ឌដែលត្រូវប្រើដើម្បីកសាងការយល់ស្រប និងសាកល្បងភាពធ្ងន់ធ្ងរនៃហានិភ័យដែលកំពុងកើតឡើង ក៏ដូចជាការលុបបំបាត់ជាមុន។
  • ដើម្បីបង្កើនគោលការណ៍សីលធម៌ដែលត្រូវការដើម្បីណែនាំ និងគ្រប់គ្រងការប្រើប្រាស់ AI ។ ក្របខណ្ឌនេះអាចធ្វើដូចនេះបានដោយផ្តល់នូវមូលដ្ឋានគ្រឹះដែលអាចបត់បែនបាន ដែលប្រព័ន្ធដែលគួរឱ្យទុកចិត្តអាចត្រូវបានបង្កើតឡើង និងធានានូវការប្រើប្រាស់បច្ចេកវិទ្យាប្រកបដោយច្បាប់ ក្រមសីលធម៌ រឹងមាំ និងប្រកបដោយការទទួលខុសត្រូវ។ គោលការណ៍ទាំងនេះអាចត្រូវបានសាកល្បងប្រឆាំងនឹងជួរពេញលេញនៃផលប៉ះពាល់ដែលបានបង្ហាញនៅក្នុងក្របខ័ណ្ឌនេះ។
  • ដើម្បីជួយសម្រួលដល់ការស្តុកទុកនៃវិធានការដែលមានស្រាប់ និងវិវឌ្ឍ (បទប្បញ្ញត្តិ នីតិប្បញ្ញត្តិ គោលនយោបាយ ស្តង់ដារ អភិបាលកិច្ច។ល។) និងកំណត់គម្លាតដែលត្រូវការការពិចារណាបន្ថែម។ ទាំងនេះអាចត្រូវបានគូសផែនទីប្រឆាំងនឹងប្រភេទក្របខ័ណ្ឌនៅកម្រិតជាតិ ឬពហុជាតិដើម្បីកំណត់គម្លាត និងកំណត់វិធានការសមស្របដើម្បីកាត់បន្ថយហានិភ័យ។
  • ដើម្បីគាំទ្រការប្រើប្រាស់ AI របស់រដ្ឋាភិបាល។ ដោយសាររដ្ឋាភិបាលជាច្រើនកំណត់យុទ្ធសាស្ត្ររៀងៗខ្លួនសម្រាប់ការប្រើប្រាស់ AI នៅក្នុងទីភ្នាក់ងារ និងប្រព័ន្ធ ក្របខ័ណ្ឌនេះអាចត្រូវបានប្រើដើម្បីកំណត់កម្រិតហានិភ័យសមស្រប និងកំណត់អ្នកពាក់ព័ន្ធ និងការទទួលខុសត្រូវសំខាន់ៗ។
  • ដើម្បីគាំទ្រដល់ការនិយាយជាសាធារណៈ និងបង្កើតអាជ្ញាប័ណ្ណសង្គមអំពីរបៀបដែល AI ត្រូវបានប្រើ និងទិន្នន័យមូលដ្ឋានដែលនឹងត្រូវបានប្រើនៅទូទាំងសេវាកម្មរបស់រដ្ឋាភិបាល ឬទូលំទូលាយជាងនេះនៅក្នុងសង្គម។

វិធីឆ្ពោះទៅមុខ
សរុបមក ក្របខណ្ឌវិភាគត្រូវបានផ្តល់ជាមូលដ្ឋាននៃកញ្ចប់ឧបករណ៍ដែលអាចត្រូវបានប្រើប្រាស់ដោយភាគីពាក់ព័ន្ធ ដើម្បីពិនិត្យមើលយ៉ាងទូលំទូលាយនូវការអភិវឌ្ឍន៍សំខាន់ៗទាំងវេទិកា ឬការប្រើប្រាស់ក្នុងលក្ខណៈស្រប និងជាប្រព័ន្ធ។ វិមាត្រដែលបង្ហាញក្នុងក្របខណ្ឌនេះ ពាក់ព័ន្ធពីការវាយតម្លៃផ្នែកបច្ចេកវិទ្យា រហូតដល់គោលនយោបាយសាធារណៈ ពីការអភិវឌ្ឍន៍មនុស្ស រហូតដល់សង្គមវិទ្យា និងអនាគត និងការសិក្សាបច្ចេកវិទ្យា។ ខណៈពេលដែលត្រូវបានបង្កើតឡើងសម្រាប់ AI ក្របខ័ណ្ឌវិភាគនេះមានកម្មវិធីទូលំទូលាយជាងនេះទៅទៀតចំពោះបច្ចេកវិទ្យាដែលកំពុងរីកចម្រើនផ្សេងទៀត។

៦ ក្រុមប្រឹក្សាប្រឹក្សា AI របស់អង្គការសហប្រជាជាតិ។ 6. របាយការណ៍បណ្តោះអាសន្ន៖ គ្រប់គ្រង AI សម្រាប់មនុស្សជាតិ។ https://www.un.org/sites/un2023.un.org/files/ai_advisory_body_interim_report.pd

ការទទួលស្គាល់

មនុស្សជាច្រើនត្រូវបានពិគ្រោះយោបល់ និងផ្តល់មតិកែលម្អក្នុងការអភិវឌ្ឍន៍ទាំងឯកសារពិភាក្សាដំបូង និងមតិកែលម្អបន្ទាប់ពីការចេញផ្សាយរបស់វា។ ឯកសារទាំងពីរនេះត្រូវបានព្រាងដោយលោក Sir Peter Gluckman ប្រធាន ISC ​​និង Hema Sridhar អតីតប្រធានទីប្រឹក្សាវិទ្យាសាស្ត្រ ក្រសួងការពារជាតិនូវែលសេឡង់ និងបច្ចុប្បន្នជាអ្នកស្រាវជ្រាវជាន់ខ្ពស់នៃសាកលវិទ្យាល័យ Auckland ប្រទេសនូវែលសេឡង់។

ជាពិសេស ISC Lord Martin Rees អតីតប្រធាន Royal Society និងជាសហស្ថាបនិកនៃមជ្ឈមណ្ឌលសម្រាប់ការសិក្សាអំពីហានិភ័យដែលមានស្រាប់ សាកលវិទ្យាល័យ Cambridge; សាស្រ្តាចារ្យ Shivaji Sondhi សាស្ត្រាចារ្យរូបវិទ្យា សាកលវិទ្យាល័យ Oxford; សាស្រ្តាចារ្យ K Vijay Raghavan អតីតទីប្រឹក្សាវិទ្យាសាស្ត្រសំខាន់របស់រដ្ឋាភិបាលនៃប្រទេសឥណ្ឌា; Amandeep Singh Gill បេសកជននៃអគ្គលេខាធិការអង្គការសហប្រជាជាតិទទួលបន្ទុកផ្នែកបច្ចេកវិទ្យា; Seán Ó hÉigeartaigh, នាយកប្រតិបត្តិ, មជ្ឈមណ្ឌលសម្រាប់ការសិក្សាអំពីហានិភ័យដែលមានស្រាប់, សាកលវិទ្យាល័យ Cambridge; លោក David Spiegelhalter សាស្ត្រាចារ្យ Winton នៃការយល់ដឹងសាធារណៈអំពីហានិភ័យ នៃសាកលវិទ្យាល័យ
នៃ Cambridge; Amanda-June Brawner ទីប្រឹក្សាគោលនយោបាយជាន់ខ្ពស់ និងលោក Ian Wiggins នាយកកិច្ចការអន្តរជាតិ Royal Society ចក្រភពអង់គ្លេស; លោកបណ្ឌិត Jerome Duberry នាយកគ្រប់គ្រង និងវេជ្ជបណ្ឌិត Marie-Laure Salles នាយកវិទ្យាស្ថានបញ្ចប់ការសិក្សានៅទីក្រុងហ្សឺណែវ; ឆរ ផាន លី មជ្ឈមណ្ឌលសម្រាប់អនាគតជាយុទ្ធសាស្ត្រ ការិយាល័យនាយករដ្ឋមន្ត្រីសិង្ហបុរី; Barend Mons និងបណ្ឌិត Simon Hodson គណៈកម្មាធិការទិន្នន័យ (CoDATA); សាស្រ្តាចារ្យ Yuko Harayama អតីតនាយកប្រតិបត្តិ RIKEN; សាស្រ្តាចារ្យ
Rémi Quirion ប្រធាន INGSA; បណ្ឌិត Claire Craig សាកលវិទ្យាល័យ Oxford និងជាអតីតប្រធានផ្នែក Foresight ការិយាល័យវិទ្យាសាស្ត្ររបស់រដ្ឋាភិបាល។ សាស្ត្រាចារ្យ Yoshua Bengio ក្រុមប្រឹក្សាប្រឹក្សាវិទ្យាសាស្ត្ររបស់អគ្គលេខាធិការអង្គការសហប្រជាជាតិ និងនៅសាកលវិទ្យាល័យ University de Montréal; និងអ្នកផ្សេងទៀតជាច្រើនដែលបានផ្តល់មតិត្រឡប់ទៅកាន់ ISC នៅលើក្រដាសពិភាក្សាដំបូង។


អានបន្ថែម

ការរៀបចំប្រព័ន្ធអេកូស្រាវជ្រាវជាតិសម្រាប់ AI៖ យុទ្ធសាស្ត្រ និងវឌ្ឍនភាពក្នុងឆ្នាំ ២០២៤

ឯកសារការងារនេះពីធុងគិតរបស់ ISC ដែលជាមជ្ឈមណ្ឌលសម្រាប់អនាគតវិទ្យាសាស្រ្ត ផ្តល់ព័ត៌មានជាមូលដ្ឋាន និងការទទួលបានធនធានពីប្រទេសមកពីគ្រប់ទិសទីនៃពិភពលោក ក្នុងដំណាក់កាលផ្សេងៗនៃការរួមបញ្ចូល AI ទៅក្នុងប្រព័ន្ធអេកូស្រាវជ្រាវរបស់ពួកគេ៖ 

រំលងទៅមាតិកា