ایتنا - پیچای گفت: «در میان نگرانی های فزاینده در مورد استفاده های شرورانه از هوش مصنوعی، ابزارهای اطلاعاتی می توانند به دولت ها و شرکت ها در شناسایی و پاسخ به تهدیدات، به خرابکاران کمک کنند».


 به گفته مدیرعامل گوگل، ساندار پیچای، پیشرفت‌های سریع در هوش مصنوعی می‌تواند به تقویت دفاع در برابر تهدیدات امنیتی در فضای سایبری کمک کند.

پیچای گفت: «در میان نگرانی‌های فزاینده در مورد استفاده‌های شرورانه از هوش مصنوعی، ابزارهای اطلاعاتی می‌توانند به دولت‌ها و شرکت‌ها در شناسایی و پاسخ به تهدیدات، به خرابکاران کمک کنند».

به گزارش ایتنا، امروزه حجم و پیچیدگی حملات سایبری افزایش یافته است چرا که خرابکاران به طور فزاینده‌ای از آن به عنوان راهی برای اعمال قدرت و اخاذی استفاده می‌کنند. حملات سایبری در سال 2023 حدود 8 تریلیون دلار به اقتصاد جهانی خسارات وارد کرد - مبلغی که قرار است تا سال 2025 به 10.5 تریلیون دلار افزایش یابد.

پیچای بیان کرد که هوش مصنوعی زمان مورد نیاز برای شناسایی حملات و واکنش در برابر آنها را برای متخصصان امنیتی کاهش می‌دهد. او گفت:« این امر باعث کاهش معضل مدافعان می‌شود که به موجب آن، هکرهای سایبری باید فقط یک بار برای حمله به یک سیستم موفق باشند در حالی که صاحبان سیستم‌ها باید هربار برای محافظت از آن موفق باشند.»

گوگل هفته گذشته، ابتکار جدیدی را اعلام کرد که ابزارهای هوش مصنوعی و سرمایه گذاری‌های زیرساختی را برای تقویت امنیت آنلاین ارائه می‌دهد. این شرکت در بیانیه‌ای گفت:« ابزاری رایگان و ‌عمومی با نام Magika به کاربران کمک می‌کند بدافزارها را شناسایی کنند.» 

پیچای گفت که این ابزارها قبلاً در محصولات این شرکت مانند گوگل کروم و جیمیل و همچنین سیستم‌های داخلی آن استفاده می‌شدند.

هوش مصنوعی در یک تقاطع قرار دارد؛ جایی که سیاست‌گذاران، متخصصان امنیتی و جامعه مدنی این شانس را دارند که در نهایت، تعادل امنیت سایبری را از مهاجمان به مدافعان سایبری تغییر دهند.

این انتشار همزمان با امضای قراردادی توسط شرکت‌های بزرگ در MSC برای اتخاذ "اقدامات احتیاطی معقول" برای جلوگیری از استفاده از ابزارهای هوش مصنوعی برای برهم زدن آرای دموکراتیک در سال انتخابات 2024 و پس از آن بود.

ادوبی، آمازون، گوگل، آی‌بی‌ام، متا، مایکروسافت، اپن‌ای‌آی، تیک‌تاک و ایکس از جمله امضاکنندگان این قرارداد بودند که شامل چارچوبی برای نحوه واکنش شرکت‌ها به دیپ‌فیک‌های تولید شده توسط هوش مصنوعی است که برای فریب رأی‌دهندگان طراحی شده‌اند.

هیلاری کلینتون، وزیر امور خارجه سابق آمریکا چندی پیش، فضای مجازی را «میدان جنگ جدید» توصیف کرد. او در مونیخ گفت: «مسابقه تسلیحاتی فناوری به تازگی با کمک هوش مصنوعی مولد، یک پله پیشرفته‌تر شده است.»

گزارشی که هفته گذشته توسط مایکروسافت منتشر شد نشان داد که هکرهای مورد حمایت دولت از روسیه و چین از مدل زبان بزرگ (LLM) برای اهداف سیاسی خود استفاده می‌کنند. گفته می‌شود که اطلاعات نظامی روسیه  و دولت‌های چین و کره شمالی، همگی بر این ابزارها تکیه کرده‌اند.

مارک هیوز، رئیس بخش امنیت خدمات فناوری اطلاعات و شرکت مشاوره DXC Technology  گفت:« هکرها به طور فزاینده‌ای به ابزارهای الهام گرفته شده از ChatGPT به نام WormGPT برای انجام وظایفی مانند کد مهندسی معکوس متکی هستند. با این حال، ابزارهای مشابهی به مهندسان کمک می‌کند تا حملات را با سرعت شناسایی و مهار کنند. اگر بتوانید کمی سریع‌تر از حریف خود عمل کنید، موفق‌تر خواهید بود. این چیزی است که هوش مصنوعی به عنوان برگ برنده به متخصصان امنیت سایبری می‌دهد.»
همرسانی کنید:

طراحی و پیاده سازی توسط: بیدسان