2024-07-02 10:33 pm

کلاهبرداری‌های AI علیه سالمندان در حال افزایش است

کلاهبرداری‌های AI علیه سالمندان در حال افزایش است

کلاهبرداری‌های AI علیه سالمندان در حال افزایش است

سناتورهای آمریکایی درباره تلاش‌های FTC برای ردیابی حملات هوش مصنوعی علیه سالمندان تحقیق می‌کنند. چهار سناتور آمریکایی نامه‌ای به لینا خان، رئیس کمیسیون تجارت فدرال (FTC)، نوشته‌اند و خواستار اطلاعاتی در مورد تلاش‌های FTC برای ردیابی استفاده از هوش مصنوعی (AI) در کلاهبرداری از سالمندان آمریکایی‌ شده‌اند. در نامه‌ای که به خان ارسال شده است، سناتورهای آمریکایی رابرت کاسی، ریچارد بلومنثال، جان فترمن و کریستن گیلیبراند بر لزوم پاسخ موثر به کلاهبرداری و فریب مبتنی بر AI تاکید کردند. آنها با تاکید بر اهمیت درک میزان تهدید برای مقابله با آن، بیان کردند: “ما از FTC می‌خواهیم که نحوه کار خود را برای جمع‌آوری داده‌ها در مورد استفاده از AI در کلاهبرداری‌ها به اشتراک بگذارد و اطمینان حاصل کند که این داده‌ها به طور دقیق در پایگاه داده شبکه Sentinel مصرف‌کننده (Sentinel) آن منعکس شده است.” Sentinel یک ابزار تحقیقاتی سایبری FTC است که توسط آژانس‌های اجرای قانون فدرال، ایالتی یا محلی استفاده می‌شود و شامل گزارش‌هایی در مورد کلاهبرداری‌های مختلف است. سناتورها از رئیس FTC چهار سوال در مورد شیوه‌های جمع‌آوری داده‌های کلاهبرداری AI پرسیدند.

دستورالعمل‌های جهانی برای محافظت از مدل‌های AI از دستکاری منتشر شد

سناتورها می‌خواستند بدانند که آیا FTC توانایی شناسایی کلاهبرداری‌های مبتنی بر AI و برچسب‌گذاری آنها در Sentinel را دارد یا خیر. علاوه بر این، از این کمیسیون خواسته شد تا بتواند کلاهبرداری‌های AI تولیدکننده را که مورد توجه قربانیان قرار نگرفته‌اند، شناسایی کند.

قانونگذاران همچنین درخواست کردند که داده‌های Sentinel را برای شناسایی محبوبیت و نرخ موفقیت هر نوع کلاهبرداری تجزیه و تحلیل کند. سوال نهایی پرسیده شد که آیا FTC از AI برای پردازش داده‌های جمع‌آوری‌شده توسط Sentinal استفاده می‌کند.

در ۲۷ نوامبر، ایالات متحده، بریتانیا، استرالیا و ۱۵ کشور دیگر به طور مشترک دستورالعمل‌های جهانی را برای کمک به محافظت از مدل‌های هوش مصنوعی (AI) در برابر دستکاری منتشر کردند و از شرکت‌ها خواستند تا مدل‌های خود را «از نظر طراحی ایمن» کنند.

این دستورالعمل‌ها عمدتاً توصیه می‌کنند که کنترل دقیق زیرساخت مدل AI حفظ شود، قبل و بعد از انتشار برای هر گونه دستکاری در مدل‌ها نظارت شود و پرسنل در مورد خطرات امنیت سایبری آموزش ببینند.

با این حال، این دستورالعمل‌ها تاکنون از بحث در مورد کنترل‌های احتمالی در مورد استفاده از مدل‌های تولیدکننده تصویر و جعل‌های عمیق یا روش‌های جمع‌آوری داده‌ها و استفاده از آنها در مدل‌های آموزشی خودداری کرده اند.

با کرپیتو پارسه میتوانید همیشه در جریان آخرین اخبار و رویدادهای ارزهای دیجیتال صنعت کریپتو قرار بگیرید.

کلاهبرداری‌های AI علیه سالمندان در حال افزایش است

5/5
مطالب مرتبط

There are no comments yet