۰۶ دی ۱۴۰۳
به روز شده در: ۰۶ دی ۱۴۰۳ - ۲۱:۵۷
فیلم بیشتر »»
کد خبر ۹۲۸۷۵۵
تاریخ انتشار: ۰۵:۰۰ - ۰۳-۱۰-۱۴۰۲
کد ۹۲۸۷۵۵
انتشار: ۰۵:۰۰ - ۰۳-۱۰-۱۴۰۲

هوش مصنوعی می‌تواند موجب تولید و انتشار اخبار جعلی شود

هوش مصنوعی می‌تواند موجب تولید و انتشار اخبار جعلی شود
مسئول مرکز تحقیقات و آینده پژوهی سازمان سراج با تاکید بر اینکه هوش مصنوعی می تواند موجب تولید اخبار جعلی شود، گفت:باید از فیک نیوزها تا جایی بترسیم که به جهان دروغین برسیم.

سید سجاد شریعتی با اشاره به «نسبت هوش مصنوعی با فیک نیوز و تحولی که ایجاد می‌کند»، گفت: هر چیزی که به عنوان جنگ ترکیبی، فیک نیوز، هجوم رسانه‌ای و حتی رسانه و زیست بشری می‌شناسیم، با تحولاتی که در سال‌های آینده در هوش مصنوعی رخ می‌دهد، تغییر می‌کند و متحول می‌شود.

به گزارش مهر، میزان تولید و توزیع خبر دروغ با هوش مصنوعی رشد تصاعدی می‌یابد. بنابراین هرچه کنش ورزی می‌خواهیم، باید در حوزه هوش مصنوعی باشد تا تاثیرگذار شود.

شریعتی با تاکید بر اینکه ابتدا باید هوش مصنوعی را بشناسیم، گفت: هوش مصنوعی در سه نسل تعریف می‌شود. نسل اول هوش مصنوعی، هوش مصنوعی محاسباتی و منطقی است که از دهه ۶۰ آغاز شد. این روند تا ۲۰۱۰ در همین حیطه وجود داشت.

مسئول مرکز تحقیقات و آینده پژوهی سازمان سراج افزود: شکل بعدی هوش مصنوعی از ۲۰۱۰ آغاز شد به خاطر تحول در داده‌ها و اینترنت رخ داد. وقتی کلان‌داده فراهم شد، به نسل جدید منتقل شدیم.

هر چند خیلی چیزها وجود دارد که هنوز لمس نکرده‌ایم. باید تعامل با ماشین را بشناسیم و زبان ماشین را درک کنیم و متوجه شویم چگونه حرف ما را می‌شنود و چگونه سوال کنیم که به ما پاسخ بدهند.

وی نسل سوم هوش مصنوعی را AGI یا هوش مصنوعی عام توصیف کرد و گفت: در سراج به این نوع هوش، هوش مدبر یا عقل فعال می‌گوییم که می‌تواند به صورت انفرادی چیزها را یاد بگیرد، رشد کند، توسعه یابد و در پایان خود هوش را تولید کند.

دکتر شریعتی گفت: شبکه عصبی مصنوعی ماشین‌هایی هستند که مانند مغز انسان یاد می‌گیرند.

مسئول مرکز تحقیقات و آینده پژوهی سازمان سراج با اشاره به مدل زبان‌های بزرگ، گفت: این مدل پردازش زبان‌های طبیعی دارد که بررسی می‌کند چگونه انسان‌ها کلمات را کنار هم قرار می‌دهند.

دکتر شریعتی با اعلام اینکه وقتی هوش مصنوعی روی اکوسیستم می‌نشیند، اتفاق اصلی رخ داده است، گفت: هوش مصنوعی می‌تواند بالای اکوسیستم دیجیتال بنشیند و اپلیکیشن‌های مختلف را ارائه دهد.

وی به تشریح ۴ مسیر اصلی و کاربرد هوش مصنوعی در حوزه فیک‌نیوز پرداخت و گفت: دیپ فیک،اتاق پژواک، اتاق محتوا و دستکاری داده، پایه ۴ مسیر اصلی است. این چهار مسیر اصلی‌ترین مسیرهای مساهمت هوش در حوزه خبر جعلی و اطلاعات غلط است.

هر کدام از این ابزارها می‌توانند به تنهایی موج‌های سایبری و رسانه‌ای را در راستای تولید و انتشار اخبار دروغین ایجاد کنند.

مسئول مرکز تحقیقات و آینده پژوهی سازمان سراج گفت: باید از فیک نیوزها تا جایی بترسیم که به جهان دروغین برسیم و دروغ سراسر روابط انسانی را بگیرد.

وی گفت: برجسته‌ترین عملکرد دیپ فیک‌ها علیه سیاستمداران و فضای سیاسی صورت می‌گیرد. اما بیشتر زمانی خطرناک‌تر می‌شود که به تولید فضای جعل و دروغ در جامعه وارد شود. در این صورت باید بترسیم که کلاهبرداری‌ها اتفاق بیفتد، فیلم بسازند و روابط انسان‌ها را تخریب کنند.

وی با اعلام اینکه برای مقابله با این چالش‌ها، باید به راهکار اندیشید، گفت: ما برای شناسایی و جلوگیری از اخبار جعلی، از ابزارهای هوش مصنوعی استفاده می‌کنیم.

ما می‌توانیم با تحلیل داده‌ها، محتوا، منبع و مخاطب اخبار، میزان صحت و اعتبار آن‌ها را سنجیده و به مخاطبان اطلاع دهیم. ما همچنین می‌توانیم با آموزش و افزایش سواد فضای مجازی، مردم را قادر به تشخیص و انتقاد از اخبار جعلی کنیم.

ارسال به دوستان
ادعای تحویل توله شیر تکذیب شد؛ پرونده قضایی برای ورزشکار متخلف قلب ما مغز مخصوص به خود را دارد کشف ۳ هزار قبضه اسلحه و دستگیری ۱۰۰ هزار قاچاقچی در مرزهای ایران هوش شگفت آور مورچه‌ها (فیلم) پاکدامن قهرمان شمشیربازی سابر ایران شد مواد غذایی و خوردنی هایی که سنگ کلیه تولید می کنند مصرف این ۲ میوه‌ خطر مرگ زودهنگام را کاهش می‌دهد غده تیروئید در بدن چه نقشی دارد؟ (فیلم) حذف صفر از پول ملی؛ تجربه‌ای جهانی با یکصد نمونه مشابه طرز تهیه کباب مرغ با کرفس (یک ناهار مجلسی با نکات) واتس‌اپ چگونه بدون دریافت پول، میلیاردها دلار درآمد دارد؟ ژاپن به عنوان میانجی در روابط ایران و آمریکا؛ آیا مذاکرات به نتیجه می‌رسد؟ «سوزاندن چهره سربازان کشته‌شده کره‌شمالی» در جنگ؛ اوکراین:امروز تسلیم، فردا مقیم کره‌جنوبی‌ شوید غذای خیابانی در هند؛ پخت املت در دهلی نو (فیلم) احتیاط در تطبیق روایات آخرالزمانی با تحولات خاورمیانه / واقعه شریف ظهور در گرو تقدیر الهی است، نه تدابیر انسانی