ក្រុង Tel Aviv រងការបាញ់មីស៊ីលពីប្រទេសយេម៉ែន អ៊ីស្រាអែល និងក្រុម Houthi
ធនាគារនេះនិយាយថា "មនុស្សរាប់លាននាក់" អាចត្រូវបានកំណត់គោលដៅដោយការបោកប្រាស់ដោយសំឡេង AI
ធនាគារចក្រភពអង់គ្លេសបានព្រមានថា "មនុស្សរាប់លាននាក់" អាចក្លាយជាជនរងគ្រោះនៃការបោកប្រាស់ដោយប្រើបញ្ញាសិប្បនិម្មិតដើម្បីក្លូនសំឡេងរបស់ពួកគេ។
Starling Bank ដែលជាអ្នកផ្តល់ប្រាក់កម្ចីសម្រាប់តែតាមអ៊ីនធឺណិត បាននិយាយថា អ្នកបោកប្រាស់មានសមត្ថភាពប្រើប្រាស់ AI ដើម្បីចម្លងសំឡេងរបស់មនុស្សពីសំឡេងត្រឹមតែ 3 វិនាទីប៉ុណ្ណោះដែលបានរកឃើញនៅក្នុងឧទាហរណ៍ វីដេអូដែលបុគ្គលនោះបានបង្ហោះតាមអ៊ីនធឺណិត។ បន្ទាប់មក អ្នកបោកប្រាស់អាចកំណត់អត្តសញ្ញាណមិត្តភ័ក្តិ និងសមាជិកគ្រួសាររបស់បុគ្គលនោះ ហើយប្រើសំឡេង AI-cloned ដើម្បីធ្វើការហៅទូរស័ព្ទដើម្បីសុំលុយ។
ធនាគារ Starling Bank បាននិយាយនៅក្នុងសេចក្តីប្រកាសព័ត៌មានកាលពីថ្ងៃពុធថា ប្រភេទនៃការបោកប្រាស់ទាំងនេះមានសក្តានុពលក្នុងការ "ចាប់បានរាប់លាននាក់" ។
ពួកគេបានប៉ះពាល់រាប់រយនាក់ហើយ។ យោងតាមការស្ទង់មតិលើមនុស្សពេញវ័យជាង 3,000 ដែលធនាគារបានធ្វើឡើងជាមួយ Mortar Research កាលពីខែមុន អ្នកឆ្លើយសំណួរច្រើនជាងមួយភាគបួនបាននិយាយថា ពួកគេត្រូវបានគេកំណត់គោលដៅដោយការបោកប្រាស់ដោយសំឡេង AI ក្នុងរយៈពេល 12 ខែកន្លងមកនេះ។
ការស្ទង់មតិក៏បានបង្ហាញផងដែរថា 46% នៃអ្នកឆ្លើយតបមិនបានដឹងថាមានការបោកប្រាស់បែបនេះទេ ហើយ 8% នឹងផ្ញើប្រាក់ច្រើនតាមសំណើរបស់មិត្តភក្តិ ឬសមាជិកគ្រួសារ ទោះបីជាពួកគេគិតថាការហៅទូរសព្ទហាក់ដូចជាចម្លែកក៏ដោយ។
Lisa Grahame ប្រធានផ្នែកសន្តិសុខព័ត៌មាននៅ Starling Bank បាននិយាយនៅក្នុងសេចក្តីប្រកាសព័ត៌មានថា "មនុស្សបង្ហោះមាតិកានៅលើអ៊ីនធឺណិតជាទៀងទាត់ដែលមានការថតសំលេងរបស់ពួកគេដោយមិននឹកស្មានថាវាធ្វើឱ្យពួកគេងាយរងគ្រោះនឹងអ្នកបោកប្រាស់" ។
ធនាគារកំពុងលើកទឹកចិត្តមនុស្សឱ្យយល់ព្រម "ឃ្លាសុវត្ថិភាព" ជាមួយមនុស្សជាទីស្រឡាញ់របស់ពួកគេ ដែលជាឃ្លាចៃដន្យសាមញ្ញ ដែលងាយស្រួលចងចាំ និងខុសពីពាក្យសម្ងាត់ផ្សេងទៀតរបស់ពួកគេ ដែលអាចត្រូវបានប្រើដើម្បីផ្ទៀងផ្ទាត់អត្តសញ្ញាណរបស់ពួកគេតាមទូរស័ព្ទ។
អ្នកផ្តល់ប្រាក់កម្ចីផ្តល់ដំបូន្មានប្រឆាំងនឹងការចែករំលែកឃ្លាសុវត្ថិភាពលើអត្ថបទ ដែលអាចធ្វើឱ្យវាងាយស្រួលសម្រាប់អ្នកបោកប្រាស់ក្នុងការស្វែងរក ប៉ុន្តែប្រសិនបើចែករំលែកតាមរបៀបនេះ សារគួរតែត្រូវបានលុបចោលនៅពេលដែលអ្នកផ្សេងទៀតបានឃើញវា។
នៅពេលដែល AI កាន់តែមានភាពប៉ិនប្រសប់ក្នុងការធ្វើត្រាប់តាមសំឡេងរបស់មនុស្ស ការព្រួយបារម្ភកំពុងកើនឡើងអំពីសក្តានុពលរបស់វាក្នុងការបង្កគ្រោះថ្នាក់ដល់មនុស្ស ដោយឧទាហរណ៍ ការជួយឧក្រិដ្ឋជនចូលគណនីធនាគាររបស់ពួកគេ និងផ្សព្វផ្សាយព័ត៌មានមិនពិត។
កាលពីដើមឆ្នាំនេះ OpenAI ដែលជាអ្នកបង្កើត AI chatbot ChatGPT បានបង្កើតឧបករណ៍ចម្លងសំឡេងរបស់ខ្លួនគឺ Voice Engine ប៉ុន្តែមិនបានធ្វើឱ្យវាអាចប្រើបានជាសាធារណៈនៅដំណាក់កាលនោះដោយលើកឡើងពី "សក្តានុពលសម្រាប់ការប្រើប្រាស់សម្លេងសំយោគខុស" ។