واکنش عمومی به مصاحبه با آواتار هوش مصنوعی قربانی پارکلند در کمپین اصلاح قوانین اسلحه
واکنش عمومی به مصاحبه با آواتار هوش مصنوعی قربانی پارکلند در کمپین اصلاح قوانین اسلحه
به گزارش زوم ارز، مصاحبهای که اخیراً با استفاده از آواتار هوش مصنوعی از خواکین الیور، یکی از قربانیان تیراندازی مدرسه پارکلند در سال ۲۰۱۸، منتشر شد، واکنشهای گستردهای را برانگیخت. این آواتار در مصاحبهای با جیم آکوستا، خبرنگار سابق سیانان، به سوالات پاسخ داد. این مصاحبه بخشی از یک کمپین دیجیتال برای اصلاح قوانین اسلحه بود که توسط خانواده الیور و گروه مدافع «تغییر مرجع» راهاندازی شد.
در این ویدیو، که در روز بیست و پنجمین سالگرد تولد خواکین منتشر شد، آواتار به سوالات با پاسخهایی برگرفته از نوشتههای پیشین او پاسخ میدهد. این ویدیو جنجالهایی را در مورد اخلاق استفاده از فناوریهای بازآفرینی از متوفیان در رسانههای عمومی برانگیخت.
پدر خواکین، مانوئل الیور، از این فناوری دفاع کرد و اظهار داشت که قصد ندارد پسرش را به زندگی بازگرداند، بلکه هدف از این کار حفظ یاد اوست. وی همچنین تاکید کرد که با وجود اینکه این تنها یک فناوری است، استفاده از آن به یاد پسرش است و از نظر احساسی نیز برای او ارزش دارد.
منتقدان در شبکههای اجتماعی، این اقدام را “دیوانهکننده” و “نگرانکننده” توصیف کرده و نگرانیهایی را در مورد رضایت، تاثیر عاطفی و احتمال تحریف تصویر متوفی مطرح کردند. اما در عین حال، برخی دیگر نیز از این اقدام حمایت کرده و گفتند که میتوانند با والدین همدردی کنند، حتی اگر با دیدگاههای سیاسی آنها در مورد کنترل اسلحه موافق نباشند.
در این میان، سوالات اخلاقی درباره استفاده از شبیهسازیهای هوش مصنوعی برای گفتوگو با افرادی که قادر به دفاع از خود نیستند، مطرح شد. برخی از کاربران از این موضوع ابراز نگرانی کردند و آن را فراتر از مرزهای اخلاقی دانستند.
این اولین بار نیست که گروه «تغییر مرجع» از هوش مصنوعی برای ارسال پیامهای قربانیان خشونت اسلحه به قانونگذاران استفاده میکند. پیش از این، آنها در کمپین «خط شلیک» در سال ۲۰۲۴ از این فناوری بهره برده بودند که این روش با وجود برانگیختن بحثهایی، نسبت به شبیهسازی مصاحبهها کمتر بحثبرانگیز بود.
این اقدام به وضوح در مرکز نگرانیهای اخلاقی مرتبط با استفاده از هوش مصنوعی برای بازآفرینی افراد فوتشده قرار دارد و محققان دانشگاه کمبریج نیز هشدار دادهاند که قوانین شفاف و محدودیتهای اخلاقی برای استفاده از این فناوریها ضروری است.