واکنش عمومی به مصاحبه با آواتار هوش مصنوعی قربانی پارکلند در کمپین اصلاح قوانین اسلحه

واکنش عمومی به مصاحبه با آواتار هوش مصنوعی قربانی پارکلند در کمپین اصلاح قوانین اسلحه

واکنش عمومی به مصاحبه با آواتار هوش مصنوعی قربانی پارکلند در کمپین اصلاح قوانین اسلحه

به گزارش زوم ارز،  مصاحبه‌ای که اخیراً با استفاده از آواتار هوش مصنوعی از خواکین الیور، یکی از قربانیان تیراندازی مدرسه پارکلند در سال ۲۰۱۸، منتشر شد، واکنش‌های گسترده‌ای را برانگیخت. این آواتار در مصاحبه‌ای با جیم آکوستا، خبرنگار سابق سی‌ان‌ان، به سوالات پاسخ داد. این مصاحبه بخشی از یک کمپین دیجیتال برای اصلاح قوانین اسلحه بود که توسط خانواده الیور و گروه مدافع «تغییر مرجع» راه‌اندازی شد.

در این ویدیو، که در روز بیست و پنجمین سالگرد تولد خواکین منتشر شد، آواتار به سوالات با پاسخ‌هایی برگرفته از نوشته‌های پیشین او پاسخ می‌دهد. این ویدیو جنجال‌هایی را در مورد اخلاق استفاده از فناوری‌های بازآفرینی از متوفیان در رسانه‌های عمومی برانگیخت.

پدر خواکین، مانوئل الیور، از این فناوری دفاع کرد و اظهار داشت که قصد ندارد پسرش را به زندگی بازگرداند، بلکه هدف از این کار حفظ یاد اوست. وی همچنین تاکید کرد که با وجود اینکه این تنها یک فناوری است، استفاده از آن به یاد پسرش است و از نظر احساسی نیز برای او ارزش دارد.

منتقدان در شبکه‌های اجتماعی، این اقدام را “دیوانه‌کننده” و “نگران‌کننده” توصیف کرده و نگرانی‌هایی را در مورد رضایت، تاثیر عاطفی و احتمال تحریف تصویر متوفی مطرح کردند. اما در عین حال، برخی دیگر نیز از این اقدام حمایت کرده و گفتند که می‌توانند با والدین همدردی کنند، حتی اگر با دیدگاه‌های سیاسی آن‌ها در مورد کنترل اسلحه موافق نباشند.

در این میان، سوالات اخلاقی درباره استفاده از شبیه‌سازی‌های هوش مصنوعی برای گفت‌وگو با افرادی که قادر به دفاع از خود نیستند، مطرح شد. برخی از کاربران از این موضوع ابراز نگرانی کردند و آن را فراتر از مرزهای اخلاقی دانستند.

این اولین بار نیست که گروه «تغییر مرجع» از هوش مصنوعی برای ارسال پیام‌های قربانیان خشونت اسلحه به قانونگذاران استفاده می‌کند. پیش از این، آن‌ها در کمپین «خط شلیک» در سال ۲۰۲۴ از این فناوری بهره برده بودند که این روش با وجود برانگیختن بحث‌هایی، نسبت به شبیه‌سازی مصاحبه‌ها کمتر بحث‌برانگیز بود.

این اقدام به وضوح در مرکز نگرانی‌های اخلاقی مرتبط با استفاده از هوش مصنوعی برای بازآفرینی افراد فوت‌شده قرار دارد و محققان دانشگاه کمبریج نیز هشدار داده‌اند که قوانین شفاف و محدودیت‌های اخلاقی برای استفاده از این فناوری‌ها ضروری است.