ដំណោះស្រាយដែលដំណើរការដោយអេអាយអាយត្រូវការសំណុំទិន្នន័យដើម្បីឱ្យមានប្រសិទ្ធភាព។ ហើយការបង្កើតសំណុំទិន្នន័យទាំងនោះគឺពោរពេញទៅដោយបញ្ហាលំអៀងមិនច្បាស់លាស់ក្នុងកម្រិតជាប្រព័ន្ធ។ មនុស្សទាំងអស់ទទួលរងនូវភាពលំអៀង (ទាំងដឹងខ្លួននិងសន្លប់) ។ ការលំអៀងអាចមានទម្រង់មួយចំនួន៖ ភូមិសាស្ត្រ ភាសា សេដ្ឋកិច្ចសង្គម ភេទ និងប្រកាន់ពូជសាសន៍។ ហើយភាពលំអៀងជាប្រព័ន្ធទាំងនោះត្រូវបានបញ្ចូលទៅក្នុងទិន្នន័យ ដែលអាចបណ្តាលឱ្យផលិតផល AI បន្តកើតមាន និងពង្រីកភាពលំអៀង។ អង្គការត្រូវការវិធីសាស្រ្តគិតគូរដើម្បីកាត់បន្ថយការប្រឆាំងនឹងភាពលំអៀងដែលចូលទៅក្នុងសំណុំទិន្នន័យ។
ឧទាហរណ៍ដែលបង្ហាញពីបញ្ហាលំអៀង
ឧទាហរណ៍គួរឱ្យកត់សម្គាល់មួយនៃសំណុំទិន្នន័យនេះដែលប្រមូលបាននូវសារអវិជ្ជមានជាច្រើននៅពេលនោះគឺដំណោះស្រាយការអានប្រវត្តិរូបដែលពេញចិត្តបេក្ខជនបុរសជាងស្ត្រី។ នេះគឺដោយសារតែសំណុំទិន្នន័យរបស់ឧបករណ៍ជ្រើសរើសត្រូវបានបង្កើតឡើងដោយប្រើប្រវត្តិរូបសង្ខេបតាំងពីជាងមួយទសវត្សរ៍មុន នៅពេលដែលបេក្ខជនភាគច្រើនជាបុរស។ ទិន្នន័យមានភាពលំអៀង ហើយលទ្ធផលបានឆ្លុះបញ្ចាំងពីភាពលំអៀងនោះ។
ឧទាហរណ៍ដែលត្រូវបានរាយការណ៍យ៉ាងទូលំទូលាយមួយទៀត៖ នៅក្នុងសន្និសីទអ្នកអភិវឌ្ឍន៍ Google I/O ប្រចាំឆ្នាំ Google បានចែករំលែកការមើលជាមុននៃឧបករណ៍ជំនួយផ្នែកសើស្បែកដែលដំណើរការដោយ AI ដែលជួយមនុស្សឱ្យយល់ពីអ្វីដែលកំពុងកើតឡើងជាមួយនឹងបញ្ហាទាក់ទងនឹងស្បែក សក់ និងក្រចករបស់ពួកគេ។ ជំនួយការផ្នែកសើស្បែកគូសបញ្ជាក់ពីរបៀបដែល AI កំពុងវិវឌ្ឍដើម្បីជួយដល់ការថែទាំសុខភាព ប៉ុន្តែវាក៏បានបញ្ជាក់ពីសក្តានុពលនៃភាពលំអៀងក្នុងការចូលទៅក្នុង AI បន្ទាប់ពីមានការរិះគន់ថាឧបករណ៍នេះមិនគ្រប់គ្រាន់សម្រាប់មនុស្សដែលមានពណ៌សម្បុរ។
នៅពេលដែល Google បានប្រកាសឧបករណ៍នេះ ក្រុមហ៊ុនបានកត់សម្គាល់ថា៖
ដើម្បីធ្វើឱ្យប្រាកដថាយើងកំពុងសាងសង់សម្រាប់មនុស្សគ្រប់គ្នា គំរូរបស់យើងមានកត្តាជាច្រើនដូចជាអាយុ ភេទ ពូជសាសន៍ និងប្រភេទស្បែក — ពីស្បែកស្លេកដែលមិនប្រែពណ៌ទៅជាស្បែកពណ៌ត្នោតដែលកម្រនឹងរលាក។
Google ដោយប្រើ AI ដើម្បីជួយស្វែងរកចម្លើយចំពោះស្ថានភាពស្បែកទូទៅ
ប៉ុន្តែអត្ថបទមួយនៅក្នុង Vice បាននិយាយថា Google បរាជ័យក្នុងការប្រើប្រាស់សំណុំទិន្នន័យរួមបញ្ចូល៖
ដើម្បីសម្រេចកិច្ចការនេះ អ្នកស្រាវជ្រាវបានប្រើសំណុំទិន្នន័យបណ្តុះបណ្តាលនៃរូបភាពចំនួន 64,837 នៃអ្នកជំងឺ 12,399 ដែលស្ថិតនៅក្នុងរដ្ឋចំនួនពីរ។ ប៉ុន្តែក្នុងចំណោមស្ថានភាពស្បែករាប់ពាន់នាក់ដែលមានរូបភាព មានតែ 3.5 ភាគរយប៉ុណ្ណោះដែលបានមកពីអ្នកជំងឺដែលមានប្រភេទស្បែក Fitzpatrick V និង VI ដែលតំណាងឱ្យស្បែកពណ៌ត្នោត និងស្បែកពណ៌ត្នោត ឬខ្មៅរៀងៗខ្លួន។ យោងតាមការស្រាវជ្រាវ 90 ភាគរយនៃមូលដ្ឋានទិន្នន័យត្រូវបានផ្សំឡើងដោយមនុស្សដែលមានស្បែកស្អាត ស្បែកសខ្មៅ ឬស្បែកពណ៌ត្នោតខ្ចី។ ជាលទ្ធផលនៃការធ្វើតេស្តដោយលំអៀង គ្រូពេទ្យជំនាញខាងសើស្បែកនិយាយថា កម្មវិធីនេះអាចបញ្ចប់មនុស្សលើស ឬកំណត់រោគវិនិច្ឆ័យដែលមិនមានស្បែកស។
ទីពីរ កម្មវិធី Dermatology ថ្មីរបស់ Google មិនត្រូវបានរចនាឡើងសម្រាប់អ្នកដែលមានស្បែកខ្មៅជាងនេះទេ។
Google បានឆ្លើយតបដោយនិយាយថា វានឹងកែលម្អឧបករណ៍នេះ មុនពេលចេញផ្សាយវាជាផ្លូវការ៖
ឧបករណ៍ជំនួយសើស្បែកដែលដំណើរការដោយ AI របស់យើងគឺជាចំណុចកំពូលនៃការស្រាវជ្រាវជាង XNUMX ឆ្នាំ។ ដោយសារការងាររបស់យើងមានលក្ខណៈពិសេសនៅក្នុងឱសថធម្មជាតិយើងបានបន្តអភិវឌ្ develop និងកែលម្អបច្ចេកវិទ្យារបស់យើងជាមួយនឹងការបញ្ចូលនូវសំណុំទិន្នន័យបន្ថែមដែលរួមបញ្ចូលទិន្នន័យដែលបានបរិច្ចាគដោយមនុស្សរាប់ពាន់នាក់និងរូបភាពរាប់លានដែលត្រូវបានរៀបចំឡើង។
Google ដោយប្រើ AI ដើម្បីជួយស្វែងរកចម្លើយចំពោះស្ថានភាពស្បែកទូទៅ
អ្វីដែលយើងសង្ឃឹមថាអេអាយនិងកម្មវិធីរៀនម៉ាស៊ីនអាចកែតម្រូវភាពលំអៀងទាំងនេះការពិតនៅតែមាន៖ វាគ្រាន់តែដូច ឆ្លាត ដោយសារតែសំណុំទិន្នន័យរបស់ពួកគេគឺស្អាត។ នៅក្នុងការអាប់ដេតទៅពាក្យសរសេរកម្មវិធីចាស់ សំរាមចូល / សំរាមចេញដំណោះស្រាយអេអាយអេមានភាពរឹងមាំដូចគុណភាពនៃសំណុំទិន្នន័យរបស់ពួកគេពីការចាប់ផ្តើម។ បើគ្មានការកែតម្រូវពីអ្នកសរសេរកម្មវិធីទេសំណុំទិន្នន័យទាំងនេះមិនមានបទពិសោធន៍ដើម្បីដោះស្រាយបញ្ហាដោយខ្លួនឯងទេព្រោះពួកគេគ្មានស៊ុមយោងផ្សេងទៀត។
ការកសាងសំណុំទិន្នន័យប្រកបដោយការទទួលខុសត្រូវគឺជាស្នូលនៃទាំងអស់។ បញ្ញាសិប្បនិមិត្ត. ហើយមនុស្សគឺជាស្នូលនៃដំណោះស្រាយ។
Mindful AI គឺជា Ethical AI
ភាពលំអៀងមិនកើតឡើងនៅក្នុងកន្លែងទំនេរទេ។ សំណុំទិន្នន័យដែលគ្មានសីលធម៌ ឬលំអៀងកើតចេញពីការទទួលយកវិធីសាស្រ្តខុសក្នុងដំណាក់កាលអភិវឌ្ឍន៍។ មធ្យោបាយដើម្បីប្រយុទ្ធប្រឆាំងនឹងកំហុសលំអៀងគឺត្រូវប្រកាន់យកវិធីសាស្រ្តដែលផ្តោតលើមនុស្សដែលមានទំនួលខុសត្រូវ ដែលមនុស្សជាច្រើននៅក្នុងឧស្សាហកម្មនេះហៅថា Mindful AI ។ Mindful AI មានធាតុផ្សំសំខាន់ៗចំនួនបី៖
1. Mindful AI គឺផ្តោតលើមនុស្ស
ចាប់តាំងពីការចាប់ផ្តើមគម្រោង AI នៅក្នុងដំណាក់កាលរៀបចំផែនការតម្រូវការរបស់មនុស្សត្រូវតែស្ថិតនៅចំកណ្តាលនៃរាល់ការសម្រេចចិត្ត។ ហើយនោះមានន័យថាមនុស្សទាំងអស់ - មិនមែនគ្រាន់តែជាសំណុំរងទេ។ នោះហើយជាមូលហេតុដែលអ្នកអភិវឌ្ឍន៍ត្រូវពឹងផ្អែកលើក្រុមចម្រុះនៃមនុស្សដែលមានមូលដ្ឋាននៅទូទាំងពិភពលោក ដើម្បីបណ្តុះបណ្តាលកម្មវិធី AI ឱ្យមានលក្ខណៈរួមបញ្ចូល និងមិនមានលំអៀង។
Crowdsourcing សំណុំទិន្នន័យពីសកល ក្រុមចម្រុះធានាថាភាពលំអៀងត្រូវបានកំណត់អត្តសញ្ញាណ និងត្រងចេញឱ្យបានឆាប់។ ជនជាតិភាគតិច ក្រុមអាយុ ភេទ កម្រិតនៃការអប់រំ សាវតាសេដ្ឋកិច្ចសង្គម និងទីតាំងអាចរកឃើញសំណុំទិន្នន័យដែលពេញចិត្តនឹងតម្លៃមួយលើតម្លៃមួយទៀត ដូច្នេះហើយអាចលុបបំបាត់ការលំអៀងដោយអចេតនា។
សូមក្រឡេកមើលកម្មវិធីសំឡេង។ នៅពេលអនុវត្តវិធីសាស្រ្ត AI ប្រកបដោយការយកចិត្តទុកដាក់និងបង្កើនអានុភាពនៃអាងទេពកោសល្យសកលអ្នកអភិវឌ្canន៍អាចគិតគូរពីធាតុផ្សំនៃភាសាដូចជាគ្រាមភាសានិងការសង្កត់សំឡេងផ្សេងៗគ្នានៅក្នុងសំណុំទិន្នន័យ។
ការបង្កើតក្របខណ្ឌការរចនាដែលផ្តោតលើមនុស្សតាំងពីដំបូងគឺមានសារៈសំខាន់ណាស់។ វាដើរទៅមុខយ៉ាងវែងឆ្ងាយឆ្ពោះទៅរកការធានាថាទិន្នន័យដែលបានបង្កើត រៀបចំ និងដាក់ស្លាកបំពេញតាមការរំពឹងទុករបស់អ្នកប្រើប្រាស់ចុងក្រោយ។ ប៉ុន្តែវាមានសារៈសំខាន់ផងដែរក្នុងការរក្សាមនុស្សនៅក្នុងរង្វិលជុំពេញមួយវដ្តនៃការអភិវឌ្ឍន៍ផលិតផលទាំងមូល។
មនុស្សនៅក្នុងរង្វិលជុំក៏អាចជួយម៉ាស៊ីនបង្កើតបទពិសោធន៍ AI កាន់តែប្រសើរឡើងសម្រាប់ទស្សនិកជនជាក់លាក់នីមួយៗ។ នៅ Pactera EDGE ក្រុមគម្រោងទិន្នន័យ AI របស់យើង ដែលមានទីតាំងនៅទូទាំងពិភពលោក យល់ពីរបៀបដែលវប្បធម៌ និងបរិបទផ្សេងៗគ្នាអាចប៉ះពាល់ដល់ការប្រមូល និងរៀបចំទិន្នន័យបណ្តុះបណ្តាល AI ដែលអាចទុកចិត្តបាន។ ពួកគេមានឧបករណ៍ចាំបាច់ដែលពួកគេត្រូវការដើម្បីសម្គាល់បញ្ហា តាមដាន និងជួសជុលវា មុនពេលដំណោះស្រាយផ្អែកលើ AI ដំណើរការ។
Human-in-the-loop AI គឺជាគម្រោង “សំណាញ់សុវត្ថិភាព” ដែលរួមបញ្ចូលគ្នានូវភាពខ្លាំងរបស់មនុស្ស – និងប្រវត្តិចម្រុះរបស់ពួកគេជាមួយនឹងថាមពលកុំព្យូទ័រដ៏លឿននៃម៉ាស៊ីន។ កិច្ចសហការរវាងមនុស្ស និង AI នេះចាំបាច់ត្រូវបង្កើតឡើងតាំងពីការចាប់ផ្តើមនៃកម្មវិធី ដើម្បីកុំឱ្យទិន្នន័យលំអៀងមិនបង្កើតមូលដ្ឋានគ្រឹះនៅក្នុងគម្រោង។
2. គំនិត AI មានទំនួលខុសត្រូវ
ការមានទំនួលខុសត្រូវគឺដើម្បីធានាថាប្រព័ន្ធ AI គ្មានការលំអៀង ហើយថាពួកគេមានមូលដ្ឋាននៅក្នុងក្រមសីលធម៌។ វានិយាយអំពីការគិតអំពីរបៀប ហេតុអ្វី និងកន្លែងដែលទិន្នន័យត្រូវបានបង្កើត របៀបដែលវាត្រូវបានសំយោគដោយប្រព័ន្ធ AI និងរបៀបដែលវាត្រូវបានប្រើក្នុងការសម្រេចចិត្ត ការសម្រេចចិត្តដែលអាចមានផលប៉ះពាល់ខាងសីលធម៌។ មធ្យោបាយមួយសម្រាប់អាជីវកម្មដើម្បីធ្វើដូច្នេះ គឺត្រូវធ្វើការជាមួយសហគមន៍ដែលស្ថិតនៅក្រោមតំណាងដើម្បីឱ្យមានការចូលរួមកាន់តែច្រើន និងមានភាពលំអៀងតិច។ នៅក្នុងវិស័យចំណារពន្យល់ទិន្នន័យការស្រាវជ្រាវថ្មីកំពុងគូសបញ្ជាក់ពីរបៀបដែលគំរូពហុមុខងារដែលមានចំណារពន្យល់ច្រើនដែលចាត់ទុកស្លាករបស់អ្នកធ្វើចំណារនិមួយៗថាជាកិច្ចការរងដាច់ដោយឡែកអាចជួយកាត់បន្ថយបញ្ហាសក្តានុពលដែលមាននៅក្នុងវិធីសាស្រ្តការពិតមូលដ្ឋានដែលការមិនយល់ស្របរបស់អ្នករាយការណ៍អាចបណ្តាលមកពីការមិនមានតំណាងនិង អាចត្រូវបានមិនអើពើនៅក្នុងការប្រមូលផ្តុំនៃចំណារពន្យល់ទៅនឹងការពិតមូលដ្ឋានតែមួយ។
3. គួរឱ្យទុកចិត្ត
ភាពជឿជាក់បានមកពីអាជីវកម្មដែលមានតម្លាភាព និងអាចពន្យល់បាននៅក្នុងរបៀបដែលគំរូ AI ត្រូវបានបណ្តុះបណ្តាល របៀបដែលវាដំណើរការ និងមូលហេតុដែលពួកគេណែនាំអំពីលទ្ធផល។ អាជីវកម្មត្រូវការជំនាញជាមួយការធ្វើមូលដ្ឋានីយកម្ម AI ដើម្បីធ្វើឱ្យវាអាចទៅរួចសម្រាប់អតិថិជនរបស់ខ្លួនក្នុងការធ្វើឱ្យកម្មវិធី AI របស់ពួកគេកាន់តែរួមបញ្ចូល និងមានលក្ខណៈផ្ទាល់ខ្លួន ដោយគោរពនូវភាពខុសប្លែកសំខាន់ៗនៅក្នុងភាសាក្នុងស្រុក និងបទពិសោធន៍អ្នកប្រើប្រាស់ដែលអាចបង្កើត ឬបំបែកភាពជឿជាក់នៃដំណោះស្រាយ AI ពីប្រទេសមួយទៅប្រទេសមួយទៀត។ . ឧទាហរណ៍ អាជីវកម្មគួរតែរៀបចំកម្មវិធីរបស់ខ្លួនសម្រាប់បរិបទផ្ទាល់ខ្លួន និងដែលបានធ្វើមូលដ្ឋានីយកម្ម រួមទាំងភាសា គ្រាមភាសា និងការសង្កត់សំឡេងនៅក្នុងកម្មវិធីផ្អែកលើសំឡេង។ តាមវិធីនោះ កម្មវិធីមួយនាំមកនូវកម្រិតដូចគ្នានៃបទពិសោធន៍សំឡេងប្រកបដោយភាពស្មុគ្រស្មាញចំពោះគ្រប់ភាសា ចាប់ពីភាសាអង់គ្លេសរហូតដល់ភាសាដែលតំណាងឱ្យតិច។
យុត្តិធម៌ និងភាពចម្រុះ
ទីបំផុត AI ប្រកបដោយការគិតពិចារណា ធានាថាដំណោះស្រាយត្រូវបានបង្កើតឡើងនៅលើសំណុំទិន្នន័យប្រកបដោយយុត្តិធម៌ និងចម្រុះ ដែលផលវិបាក និងផលប៉ះពាល់នៃលទ្ធផលជាក់លាក់ត្រូវបានត្រួតពិនិត្យ និងវាយតម្លៃ មុនពេលដំណោះស្រាយចេញលក់លើទីផ្សារ។ តាមរយៈការគិតពិចារណា និងរាប់បញ្ចូលទាំងមនុស្សនៅក្នុងគ្រប់ផ្នែកនៃការអភិវឌ្ឍន៍នៃដំណោះស្រាយ យើងជួយធានាថាគំរូ AI នៅតែស្អាត មានភាពលំអៀងតិចតួច និងប្រកបដោយក្រមសីលធម៌តាមដែលអាចធ្វើទៅបាន។