Web Analytics Made Easy - Statcounter
به نقل از «ایسنا»
2024-05-06@12:17:37 GMT

جعل در دنیای دیجیتال؛ چگونه دیپ‌فیک را تشخیص دهیم؟

تاریخ انتشار: ۱ اسفند ۱۴۰۲ | کد خبر: ۳۹۷۹۶۸۹۷

جعل در دنیای دیجیتال؛ چگونه دیپ‌فیک را تشخیص دهیم؟

جعل ویدئو، عکس و صدا با استفاده از فناوری هوش مصنوعی به‌ویژه برای افراد سرشناس به دردسری جدی تبدیل شده است.

به گزارش ایسنا، به نقل از خبرگزاری آنا؛ «اخبار جعلی» از ۲۰۱۶ به بعد به موضوعی تکراری و ازمدافتاده تبدیل شد و بار دیگر در ۲۰۲۳ ویدئوها و صداهای جعلی ساخته‌شده با هوش مصنوعی که به «جعل عمیق» (دیپ فیک) شناخته می‌شوند، موجی از تهدیدات جدید به راه انداخت و در مواردی آسیب‌هایی را در ابعاد مختلف ملی یا جهانی به بار آورد.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

گزارش پیش رو که از نظر می‌گذرانید برگردان گزارش ساینس در خصوص جعل عمیق است.

در محتواهای جعل عمیق از الگوریتم‌هایی استفاده می‌شود که با استفاده از تصویر یا صدای افراد نسخه‌ای جعلی می‌سازند و صدایی را تولید می‌کنند که هرگز آن فرد به زبان نیاورده و یا ویدئویی از او می‌سازند که فرد هرگز در آن حضور نداشته است. ساخت محتوای جعل عمیق مدام ارزان‌تر و آسان‌تر می‌شود و به طور معمول همیشه در آستانه انتخابات مهم در کشورهای مختلف موج جدیدی از آن به راه می‌افتد. تهیه شواهد و مدارک تقلبی، ایجاد اطلاعات غلط برای تخریب سیاستمداران و افراد سرشناس، دستکاری اسناد مالی و فرستادن پیام‌های متنی برای اهداف خلافکارانه از جمله کاربردهای مخرب فناوری جعل عمیق هستند.

باورپذیری محتوای جعلی توسط مخاطب

اگرچه روایت‌های نادرست در شبکه‌های اجتماعی سال‌های سال مشکل‌ساز بوده است، اما محتواهای ساخته‌شده با جعل عمیق آسیب جدی‌تری دارند. تصاویر و ویدئوها بیشتر از متن‌ها در ذهن مخاطب باقی می‌مانند، قانع‌کننده به نظر می‌رسند و می‌توان آن‌ها را در سطح گسترده به اشتراک گذاشت.

مردم در شناسایی جعل عمیق مهارت چندانی ندارند 

محتوای جعل عمیق همچنین می‌تواند باعث عدم قطعیت شود، زیرا ممکن است افراد زیادی آن را باور کنند. با این حال، مطالعات نشان داده‌اند که مردم در شناسایی جعل عمیق مهارت چندانی ندارند و اغلب نمی‌توانند جعل را از واقعیت تشخیص دهند، به ویژه آنکه تشخیص صوت‌های جعلی به مراتب سخت‌تر از ویدئوهای جعلی است.

بیشتر مردم تصور می‌کنند که می‌توانند ویدئوهای جعلی را به راحتی تشخیص دهند، اما این باور چندان دقیق نیست. بر اساس مطالعه‌ای که در ژورنال آی‌ساینس منتشر شد، ۲۱۰ داوطلب شرکت‌کننده در آزمایش تشخیص محتوای جعلی با نظارت هیئتی از دانشگاه آمستردام شرکت کردند و نتایج نشان داد که داوطلبان تنها در ۵۰ درصد از موارد توانستند ویدئوها و صداهای جعلی را تشخیص دهند.

توانایی مغز در شناسایی محتوای جعلی

تیجل گروتسوِیجرز (Tijl Grootswagers) عصب‌شناس محاسباتی از دانشگاه وسترن سیدنی می‌گوید: «عجیب نیست که فریب محتواهای جعلی را می‌خوریم چرا به ما آموزش نداده‌اند که چگونه واقعیت و جعل را از یکدیگر تشخیص دهیم. این مهارت را نداریم.»

با این حال، به نظر می‌رسد که مغز از ویژگی شناسایی محتواهای جعلی برخوردار است. گروتسوِیجرز در آزمایشی از ۲۲ داوطلب خواست تا به تصویری جعلی از یک چهره مشهور نگاه کنند و سپس متوجه شد که وقتی افراد به آن تصاویر نگاه می‌کنند یک سیگنال الکتریکی متمایز در قشر بینایی آن‌ها برانگیخته می‌شود که با سیگنال تولیدشده در هنگام نگاه کردن به تصویر واقعی متفاوت بود. یا این وجود، داوطلبان نتوانستند به درستی تشخیص دهند که کدام تصاویر واقعی هستند. دلیل این امر نامشخص است، اما شاید به دلیل تداخل سایر مناطق مغز با سیگنال‌های قشر بینایی باشد، یا شاید این سیگنال‌ها را تا کنون جدی نگرفته باشیم.

ماجرای ویدئوی جعلی تام کروز

انتشار ویدئویی از تام کروز، بازیگر مشهور هالیوود که در سال ۲۰۲۱ به سرعت در شبکه‌های اجتماعی جهان دست‌به‌دست شد نمون‌های مشهور و بسیار نزدیک به واقعیت به نظر می‌رسید نمونه‌ای معروف از ساخت ویدئو با فناوری جعل عمیق بود که واکنش‌های زیادی را در تمام دنیا برانگیخت. در این ویدئو ابتدا یک بازیگر مشهور کمدی به نام بیل هیدر (Bill Hader) ادای تام کروز را درمی‌آورد و حرف‌هایی را از او نقل قول‌ می‌کند و چند لحظه بعد با استفاده از فناوری جعل عمیق، چهره تام کروز را می‌بینیم که در حال گفتن همان حرف‌ها و انجام همان اداها است. این تغییر چهره به حدی طبیعی انجام می‌شود که گویا واقعاً خود تام کروز است که دارد آن حرف‌ها را می‌زند.

کریس اومه (Chris Ume) از حرفه‌ای‌های مشهور در حوزه جلوه‌های بصری که اِفکت‌های بصری فوق‌العاده‌ای از تام کروز را در شبکه اجتماعی تیک‌تاک منتشر کرده است می‌گوید:«ساخت ویدئوهای جعل عمیق فقط با فشردن یک دکمه انجام نمی‌شود. این پیام مهم من برای مردم و علاقه‌مندان است؛ هر کلیپ کوتاه جعل عمیق هفته‌ها کار می‌برد و سازندۀ آن باید به الگوریتم متن باز در نرم‌افزار «دیپ فیس لب» DeepFaceLab آشنایی‌ کافی داشته باشد و کارکردن با ابزار ویرایش پیشرفتۀ ویدئو را نیز بداند. برای ساخت چنین ویدئوهایی، معمولاً از ترکیب جلوه‌های بصری (VFX) و تصاویر تولیدشده توسط کامپیوتر (CGI) استفاده می‌شود؛ در نهایت برای بهبود آن به سراغ ترفندهای جعل عمیق می‌رویم تا به ویدئویی کامل و بی‌نقص برسیم.»

روش‌های تشخیص جعل عمیق ویدئویی

حالت غیرعادی صورت، حرکت غیرطبیعی صورت یا بدن، رنگ‌های غیرطبیعی، ویدئوهایی که با بزرگ‌نمایی یا کوچک‌نمایی غیرعادی و عجیب به نظر می‌رسند، صداهای ناسازگار، نگاه ثابت و پلک نزدن افراد از جمله نشانه‌های احتمالی جعل عمیق در محتوای ویدئویی هستند.

روش‌های تشخیص جعل عمیق متنی

وجود غلط املایی، جملاتی که نگارش طبیعی و روان ندارند یا اطلاعات آن‌ها نادرست است، آدرس ایمیل مشکوک، عبارات و مفاهیمی که با لحن و گفتار فرستنده فرضی مطابقت ندارد و پیام‌های خارج از متن که به هیچ بحث، رویداد یا موضوعی مرتبط نیستند در ردۀ شاخص‌های شناسایی جعل عمیق متنی هستند. با این حال، با پیشرفت هوش مصنوعی، بعضی از این شاخص‌های شناسایی دیگر به کار نمی‌آیند. برای مثال، ابزارهایی که پلک زدن طبیعی در تصویر ایجاد می‌کنند.

اگرچه جعل عمیق در بسیاری از موارد برای کارهای غیرقانونی و تقلب استفاده می‌شود، اما در صنایعی مانند فیلم‌سازی، هنر و ارتباط با مشتری نیز کاربردهای بسیار مفیدی دارد و می‌تواند در زمان و هزینه‌های برندها صرفه‌جویی کند. برای مثال، استفاده از این فناوری در پویانمایی شخصیت‌ها و یا در فیلم‌های دوبله‌شده باعث می‌شود لب زدن بازیگران حین بیان دیالوگ‌ها، بسیار طبیعی‌تر به نظر برسد.

انتهای پیام

منبع: ایسنا

کلیدواژه: دیپ فیک تام کروز هوش مصنوعی تولید محتوا جعل عمیق رژیم صهیونیستی آمريكا اوكراين جنگ غزه محتوای جعل تشخیص دهند جعل عمیق تام کروز

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.isna.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «ایسنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۷۹۶۸۹۷ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

سیر تکامل کادیلاک: سفری 122 ساله در دنیای تجملات و قدرت (فیلم)

کانال عصر ایران در تلگرام

دیگر خبرها

  • (ویدئو) انقلاب در دنیای ورزش با اسکلت بیرونی چینی
  • تاسف عمیق رئیسی درباره شکستن حرمت دانشجو در خاک امریکا! | فیلم
  • کوهستان «پرآو» پتانسیل برگزاری جشنواره‌های بین‌المللی غارنوردی را دارد
  • امید برای یافتن حیات در زیر مریخ زنده شد 
  • سیر تکامل کادیلاک: سفری 122 ساله در دنیای تجملات و قدرت (فیلم)
  • (ویدئو) تصاویر بارش ماهی در یاسوج جعلی است
  • فلفل قرمز: ادویه جدید دنیای مد! (عکس)
  • رئیس انجمن جامعه شناسی ایران: پروژه یکدست‌سازی همه جا شکست خورده است/ هر روز شکاف‌های عمیق‌تری بین ایدئولوژی حاکمیت با مردم می‌بینیم/ گروه‌های مختلف مردم به همدیگر احترام می‌گذارند
  • چرا رتیل‌ها مودار هستند؟
  • اعتراضات دانشجویان آمریکا و اروپا نشانه شکاف عمیق درون کشور‌های غربی است