علمی

یک کارشناس سایبری می گوید: تهدید اطلاعات نادرست ناشی از هوش مصنوعی مولد “بیش از حد” است.

به گزارش مجله نجم

سال 2024 قرار است بزرگترین سال انتخابات جهانی در تاریخ باشد. این همزمان با افزایش سریع دیپ فیک است. بر اساس گزارش سامساب، تنها در منطقه آسیا و اقیانوسیه، از سال 2022 تا 2023، 1530 درصد افزایش در دیپ فیک وجود داشته است.

لینک عکاسی آی استوک | گتی ایماژ

کارشناسان امنیت سایبری می ترسند محتوای تولید شده توسط هوش مصنوعی این امکان را داشته باشد که درک ما از واقعیت را مخدوش کند، نگرانی حتی نگران کننده تر در سالی پر از انتخابات مهم.

اما یک کارشناس برجسته مخالف این موضوع است و در عوض پیشنهاد می‌کند که تهدیدی که توسط دیپ فیک برای دموکراسی ایجاد می‌شود، ممکن است «اغراق‌آمیز» باشد.

مارتین لی، سرپرست فنی گروه تحقیقاتی و اطلاعاتی امنیتی Talos سیسکو، به CNBC گفت که معتقد است دیپ فیک ها – در حالی که در نوع خود یک فناوری قدرتمند هستند – مانند اخبار جعلی تاثیری ندارند.

او افزود که ابزارهای مولد جدید هوش مصنوعی “تهدید می کنند که تولید محتوای جعلی را آسان تر کنند.”

مواد تولید شده با هوش مصنوعی اغلب دارای شاخص های قابل شناسایی هستند که نشان می دهد توسط یک شخص واقعی تولید نشده اند.

محتوای بصری، به ویژه، ثابت کرده است که مستعد نقص است. به عنوان مثال، تصاویر تولید شده توسط هوش مصنوعی می‌توانند حاوی ناهنجاری‌های بصری باشند، مانند فردی که بیش از دو دست دارد یا عضوی که در پس‌زمینه تصویر ترکیب شده است.

رمزگشایی بین کلیپ های صوتی و صوتی افراد واقعی که به طور مصنوعی تولید شده اند، می تواند دشوار باشد. اما کارشناسان می گویند هوش مصنوعی هنوز به اندازه داده های آموزشی آن خوب است.

لی گفت: “با این حال، محتوای تولید شده توسط ماشین اغلب وقتی به صورت عینی مشاهده می شود، قابل تشخیص است. در هر صورت، بعید است که ایجاد محتوا مهاجمان را محدود کند.”

کارشناسان قبلا به CNBC گفته بودند که انتظار دارند اطلاعات نادرست تولید شده توسط هوش مصنوعی خطر بزرگی در انتخابات آینده در سراسر جهان ایجاد کند.

“علاقه محدود”

مت کالکینز، مدیر عامل شرکت فناوری سازمانی Appian، که به شرکت‌ها کمک می‌کند برنامه‌های کاربردی را با استفاده از ابزارهای نرم‌افزاری راحت‌تر بسازند، گفت که هوش مصنوعی «کارایی محدود» دارد.

او افزود که بسیاری از ابزارهای مولد هوش مصنوعی امروزی می توانند “خسته کننده” باشند. هنگامی که او شما را بشناسد، می تواند از حالت عالی به مفید تبدیل شود [but] اکنون نمی توان از این خط عبور کرد.

کالکینز این هفته در مصاحبه ای با CNBC گفت: زمانی که به هوش مصنوعی اعتماد کنیم تا خودمان را بشناسیم، واقعا شگفت انگیز خواهد بود.

کالکینز هشدار داد که این می‌تواند آن را به ابزاری مؤثرتر و خطرناک‌تر برای اطلاع‌رسانی نادرست در آینده تبدیل کند و افزود که از پیشرفت تلاش‌ها برای تنظیم این فناوری در ایالات متحده راضی نیست.

او افزود که ممکن است لازم باشد هوش مصنوعی چیزی آشکارا “توهین آمیز” تولید کند تا قانونگذاران آمریکایی اقدام کنند. کالکینز گفت: «یک سال به ما فرصت دهید، تا زمانی که هوش مصنوعی به ما توهین کند، شاید تصمیم درستی بگیریم. او گفت: «دموکراسی ها نهادهای تعاملی هستند.

مهم نیست که چقدر هوش مصنوعی پیشرفته می شود، لی از سیسکو می گوید راه های آزمایش شده و آزمایش شده ای برای شناسایی اطلاعات نادرست وجود دارد – خواه این اطلاعات توسط ماشین یا انسان تولید شده باشد.

لی پیشنهاد کرد: «مردم باید بدانند که این حملات در حال وقوع هستند و مراقب تکنیک‌هایی باشند که می‌توان از آنها استفاده کرد. وقتی با محتوایی مواجه می‌شویم که احساسات ما را تحریک می‌کند، باید توقف کنیم، مکث کنیم و از خود بپرسیم که آیا خود اطلاعات قابل قبول هستند یا خیر».

“آیا توسط یک رسانه معتبر منتشر شده است؟ آیا سایر رسانه های معتبر نیز همین مطلب را منتشر می کنند؟” او گفت. “اگر نه، احتمالاً یک کمپین کلاهبرداری یا اطلاعات نادرست است که باید نادیده گرفته شود یا گزارش شود.”

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا