به تازگی یکی از این رباتها امکان شبیهسازی گذشتگان را فراهم کرده است. افرادی که از این ربات استفاده کردهاند میگویند به حدی شبیهسازی به واقعیت نزدیک است که افراد احساس میکنند، عزیزانشان واقعا از آن سوی قبر با آنها صحبت میکنند. با این حال به نظر میرسد چنین رباتهایی برای مردم خطرساز باشند.
تینا مزدکی_ دو جامعه شناس به نام Tomasz Hollanek و Katarzyna Nowaczyk-Basińska، نگرانی خود را در مورد زندگی پس از مرگ دیجیتال ابراز کردهاند. آنها بر این باورند که چتباتهایی که از افراد متوفی تقلید میکنند و گاهی اوقات رباتهای مرده، رباتهایغمانگیز یا روحربات نامیده میشوند، چندین سوال کلیدی اجتماعی و اخلاقی را مطرح میکنند.
مثلاً چه کسی پس ازمرگ صاحب دادههای یک فرد است؟ تأثیر روانی بر بازماندگان چیست؟ از روحربات برای چه کاری میتوان استفاده کرد؟ و چه کسی میتواند ربات را برای همیشه خاموش کند؟ چنین سوالاتی زمانی الهام بخش یک قسمت ترسناک از سریال علمی تخیلی Black Mirror بود، اگرچه بنظر نمیرسد چنین آیندهای داشته باشیم.
با این حال سناریویی وجود دارد که Hollanek و Nowaczyk-Basińska در مقاله تحقیقاتی اخیر خود مطرح کردند و بنظر میرسد که نباید آن را نادیده گرفت. به عنوان مثال، مادربزرگ یک زن ۲۸ ساله تصمیم میگیرد که عکس، فیلم و اطلاعات مادربزرگش را در یک برنامه آپلود کند. این برنامه به زن این امکان را نمیدهد که با مادر بزرگ خود صحبت کند. اما اتفاقی عجیب رخ میدهد؛ مادربزرگ دیجیتالی در این آزمایش، در حالی که با نوهاش حرف میزند، شروع به فروش وسایل خود میکند.
به گفته کارشناسان، افراد ممکن است با چنین شبیهسازیهایی پیوندهای عاطفی قوی ایجاد کنند، اما آنها باید توجه داشته باشند که در عین حال آسیبپذیرتر میشوند. بنابراین به نظر میرسد حتی تشریفات در روحربات باید به روشی آبرومندانه انجام شود، چراکه به معنای نوعی تشییع جنازه دیجیتال است. اگرچه چنین توجهی به یک ربات چت هوش مصنوعی ممکن است در ابتدا پوچ به نظر برسد، اما در سال ۲۰۱۸، برخی از اخلاقشناسان استدلال کردند که بقایای دیجیتالی یک فرد ارزشمند است و باید به عنوان چیزی فراتر و به عنوان موجودی دارای ارزش ذاتی تلقی شود. این منطق با منشور اخلاق حرفهای شورای بینالمللی موزهها مطابقت دارد، که الزام میکند با بقایای انسانها با احترام و کرامت انسانی رفتار شود.
با این حال این دو اخلاقشناس بر این باورند که نمیتوان این رباتها را ممنوع کرد، اما میتوان کاری کرد که با دادههای افراد محترمانه رفتار کنند. همچنین نباید در فضاهایی عمومی استفاده شوند و فقط باید برای شخصیتهای مهم تاریخی باشد.
در سال ۲۰۲۲، فردی استدلال کرد که روحرباتها را میتوان به عنوان کمکهای پزشکی استفاده کرد. به عنوان مثال کودکی که یکی از عزیزانتش را از دست میدهد ممکن است گیج شود و اگر چنین رباتی وجود داشته باشد میتواند کمی به این کودک کمک کند. اما باز هم Hollanek و Nowaczyk-Basińska استدلال میکنند که این ایده بیش از حد محدود و محدودکننده است، زیرا به طور خاص به رباتهایی اشاره میکند که فقط برای پردازش غم و اندوه طراحی شدهاند.
در عوض، آنها معتقدند، این سیستم ها باید به طور معناداری شفافسازی شود تا کاربران به بهترین شکل ممکن بدانند برای چه چیزی به برنامه اطلاعات میدهند. همچنین متوجه شوند که چه خطراتن احتمالی در مورد این رباتها وجو دارد. همچنین باید بدانیم که روحربات چگونه غیر فعال میشود. به عنوان مثال، اگر فردی روحربات را به فرزند خود هدیه دهد، آیا شخص مجاز به انصراف است؟ یا اینکه قرار است روحربات برای هنمیشه در زنگی فرد وجود داشته باشد؟
بنابراین این دو کارشناس معتقدند برای هدایت توسعه چنین رباتی، داشتن نوعی نرده محافظ ضروری است و این تفکر انتقادی در مورد جاودانگی کاربران به طراحی تعامل هوش مصنوعی انسانی و تحقیقات اخلاقی AI کمک کند.
احتمال نابودی بشر توسط هوش مصنوعی چقدر است؟
«ایلان ماسک»، مدیرعامل تسلا و اسپیسایکس، در یک سمینار گفته است که 10 یا 20 درصد احتمال میدهد که هوش مصنوعی باعث نابودی بشریت شود. ایلان ماسک معتقد است که باید این فناوری را پیش برد. این میلیاردر پیشتر نیز در یک تغییر موضع گفته بود که مزایای این فناوری نسبت به معایب آن بیشتر است.
براساس گزارش دیجیاتو، ماسک در سمینار Great AI Debate دوباره درباره خطرات فناوری هوش مصنوعی و البته مزایای آن صحبت کرد. او گفت: «من فکر میکنم احتمال دارد که [هوش مصنوعی] به بشریت پایان دهد؛ احتمالاً با جف هینتون [ملقب به پدرخوانده هوش مصنوعی] موافقم که این احتمال حدود 10 یا 20 درصد یا چیزی شبیه این است.»
ماسک اشارهای نکرد که چگونه به این رقم رسیده است، بااینحال او از آینده هوش مصنوعی با خوشبینی نسبی یاد میکند.
در این سمینار، ماسک تخمین زد که هوش دیجیتالی تا سال 2030 از مجموع تمام هوش انسانی فراتر خواهد رفت. درحالیکه او باور دارد نکات مثبت احتمالی چنین هوشی بیشتر از نکات منفی آن باشد، اذعان کرد که اگر توسعه هوش مصنوعی به مسیر فعلی خود ادامه دهد خطری برای جهان وجود خواهد داشت.
«رومن یامپولسکی»، محقق ایمنی هوش مصنوعی و مدیر آزمایشگاه امنیت سایبری در دانشگاه لوئیزویل آمریکا، میگوید حق با ایلان ماسک است و هوش مصنوعی میتواند خطری برای حیات بشریت باشد؛ اما مالک ایکس در ارزیابی خود کمی محافظهکار است.
به باور یامپولسکی، احتمال اینکه هوش مصنوعی کنترل بشر را در دست بگیرد یا باعث یک رویداد پایاندهنده بشریت شود، بسیار بالاتر از 10 یا 20 درصد است. این محقق هوش مصنوعی میگوید چون کنترل هوش مصنوعی پیشرفته غیرممکن است، تنها امید ما این است که آن را نسازیم.
ایلان ماسک پیشتر درباره بهترین راه برای ایمن نگهداشتن انسانها از این فناوری گفته بود: «[هوش مصنوعی] را مجبور به دروغگفتن نکنید؛ حتی اگر حقیقت ناخوشایند باشد. این موضوع خیلی مهم است.»
دراینباره محققان دریافتهاند که وقتی هوش مصنوعی یاد بگیرد به انسان دروغ بگوید، اقدامات ایمنی فعلی برای کنترل هوش مصنوعی تقریباً غیرممکن میشود./خبر آنلاین