جنبه های ترسناک و خطرات هوش مصنوعی در آینده | احتمال نابودی بشر توسط هوش مصنوعی چقدر است؟

 به تازگی یکی از این ربات‌ها امکان شبیه‌سازی گذشتگان را فراهم کرده است. افرادی که از این ربات‌ استفاده کرده‌اند می‌گویند به حدی شبیه‌سازی به واقعیت نزدیک است که افراد احساس می‌کنند، عزیزانشان واقعا از آن سوی قبر با آن‌ها صحبت می‌کنند. با این حال به نظر می‌رسد چنین ربات‌هایی برای مردم خطرساز باشند.

تینا مزدکی_ دو جامعه شناس به نام Tomasz Hollanek و Katarzyna Nowaczyk-Basińska، نگرانی خود را در مورد زندگی پس از مرگ دیجیتال ابراز کرده‌اند. آن‌ها بر این باورند که چت‌بات‌هایی که از افراد متوفی تقلید می‌کنند و گاهی اوقات ربات‌های مرده، ربات‌های‌غم‌انگیز یا روح‌ربات نامیده می‌شوند، چندین سوال کلیدی اجتماعی و اخلاقی را مطرح می‌کنند.

مثلاً چه کسی پس ازمرگ صاحب داده‌های یک فرد است؟ تأثیر روانی بر بازماندگان چیست؟ از روح‌ربات برای چه کاری می‌توان استفاده کرد؟ و چه کسی می‌تواند ربات را برای همیشه خاموش کند؟ چنین سوالاتی زمانی الهام بخش یک قسمت ترسناک از سریال علمی تخیلی Black Mirror بود، اگرچه بنظر نمی‌رسد چنین آینده‌ای داشته باشیم.

خطرات هوش مصنوعی

با این حال سناریویی وجود دارد که Hollanek و Nowaczyk-Basińska در مقاله تحقیقاتی اخیر خود مطرح کردند و بنظر می‌رسد که نباید آن را نادیده گرفت. به عنوان مثال، مادربزرگ یک زن ۲۸ ساله تصمیم می‌گیرد که عکس، فیلم و اطلاعات مادربزرگش را در یک برنامه آپلود کند. این برنامه به زن این امکان را نمی‌دهد که با مادر بزرگ خود صحبت کند. اما اتفاقی عجیب رخ می‌دهد؛ مادربزرگ دیجیتالی در این آزمایش، در حالی که با نوه‌اش حرف می‌زند، شروع به فروش وسایل خود می‌کند.

به گفته کارشناسان، افراد ممکن است با چنین شبیه‌سازی‌هایی پیوندهای عاطفی قوی ایجاد کنند، اما آن‌ها باید توجه داشته باشند که در عین حال آسیب‌پذیرتر می‌شوند. بنابراین به نظر می‌رسد حتی تشریفات در روح‌ربات باید به روشی آبرومندانه انجام شود، چراکه به معنای نوعی تشییع جنازه دیجیتال است. اگرچه چنین توجهی به یک ربات چت هوش مصنوعی ممکن است در ابتدا پوچ به نظر برسد، اما در سال ۲۰۱۸، برخی از اخلاق‌شناسان استدلال کردند که بقایای دیجیتالی یک فرد ارزشمند است و باید به عنوان چیزی فراتر و به عنوان موجودی دارای ارزش ذاتی تلقی شود. این منطق با منشور اخلاق حرفه‌ای شورای بین‌المللی موزه‌ها مطابقت دارد، که الزام می‌کند با بقایای انسان‌ها با احترام و کرامت انسانی رفتار شود.

هوش مصنوعی

با این حال این دو اخلاق‌شناس بر این باورند که نمی‌توان این ربات‌ها را ممنوع کرد، اما می‌توان کاری کرد که با داده‌های افراد محترمانه رفتار کنند. همچنین نباید در فضاهایی عمومی استفاده شوند و فقط باید برای شخصیت‌های مهم تاریخی باشد.

در سال ۲۰۲۲، فردی استدلال کرد که روح‌ربات‌ها را می‌توان به عنوان کمک‌های پزشکی استفاده کرد. به عنوان مثال کودکی که یکی از عزیزانتش را از دست می‌دهد ممکن است گیج شود و اگر چنین رباتی وجود داشته باشد می‌تواند کمی به این کودک کمک کند. اما باز هم Hollanek و Nowaczyk-Basińska استدلال می‌کنند که این ایده بیش از حد محدود و محدودکننده است، زیرا به طور خاص به ربات‌هایی اشاره می‌کند که فقط برای پردازش غم و اندوه طراحی شده‌اند.

در عوض، آنها معتقدند، این سیستم ها باید به طور معناداری شفاف‌سازی شود تا کاربران به بهترین شکل ممکن بدانند برای چه چیزی به برنامه اطلاعات می‌دهند. همچنین متوجه شوند که چه خطراتن احتمالی در مورد این ربات‌ها وجو دارد. همچنین باید بدانیم که روح‌ربات چگونه غیر فعال می‌شود. به عنوان مثال، اگر فردی روح‌ربات را به فرزند خود هدیه دهد، آیا شخص مجاز به انصراف است؟ یا اینکه قرار است روح‌ربات برای هنمیشه در زنگی فرد وجود داشته باشد؟

هوش مصنوعی

بنابراین این دو کارشناس معتقدند برای هدایت توسعه چنین رباتی، داشتن نوعی نرده محافظ ضروری است و این تفکر انتقادی در مورد جاودانگی کاربران به طراحی تعامل هوش مصنوعی انسانی و تحقیقات اخلاقی AI کمک کند.

احتمال نابودی بشر توسط هوش مصنوعی چقدر است؟

«ایلان ماسک»، مدیرعامل تسلا و اسپیس‌ایکس، در یک سمینار گفته است که 10 یا 20 درصد احتمال می‌دهد که هوش مصنوعی باعث نابودی بشریت شود. ایلان ماسک معتقد است که باید این فناوری را پیش برد. این میلیاردر پیش‌تر نیز در یک تغییر موضع گفته بود که مزایای این فناوری نسبت به معایب آن بیشتر است.

ایلان ماسک

براساس گزارش دیجیاتو، ماسک در سمینار Great AI Debate دوباره درباره خطرات فناوری هوش مصنوعی و البته مزایای آن صحبت کرد. او گفت: «من فکر می‌کنم احتمال دارد که [هوش مصنوعی] به بشریت پایان دهد؛ احتمالاً با جف هینتون [ملقب به پدرخوانده هوش مصنوعی] موافقم که این احتمال حدود 10 یا 20 درصد یا چیزی شبیه این است.»

ماسک اشاره‌ای نکرد که چگونه به این رقم رسیده است، بااین‌حال او از آینده هوش مصنوعی با خوش‌بینی نسبی یاد می‌کند.

در این سمینار، ماسک تخمین زد که هوش دیجیتالی تا سال 2030 از مجموع تمام هوش انسانی فراتر خواهد رفت. درحالی‌که او باور دارد نکات مثبت احتمالی چنین هوشی بیشتر از نکات منفی آن باشد، اذعان کرد که اگر توسعه هوش مصنوعی به مسیر فعلی خود ادامه دهد خطری برای جهان وجود خواهد داشت.

«رومن یامپولسکی»، محقق ایمنی هوش مصنوعی و مدیر آزمایشگاه امنیت سایبری در دانشگاه لوئیزویل آمریکا، می‌گوید حق با ایلان ماسک است و هوش مصنوعی می‌تواند خطری برای حیات بشریت باشد؛ اما مالک ایکس در ارزیابی خود کمی محافظه‌کار است.

هوش مصنوعی

به باور یامپولسکی، احتمال اینکه هوش مصنوعی کنترل بشر را در دست بگیرد یا باعث یک رویداد پایان‌دهنده بشریت شود، بسیار بالاتر از 10 یا 20 درصد است. این محقق هوش مصنوعی می‌گوید چون کنترل هوش مصنوعی پیشرفته غیرممکن است، تنها امید ما این است که آن را نسازیم.

ایلان ماسک پیش‌تر درباره بهترین راه برای ایمن نگه‌داشتن انسان‌ها از این فناوری گفته بود: «[هوش مصنوعی] را مجبور به دروغ‌گفتن نکنید؛ حتی اگر حقیقت ناخوشایند باشد. این موضوع خیلی مهم است.»

دراین‌باره محققان دریافته‌اند که وقتی هوش مصنوعی یاد بگیرد به انسان دروغ بگوید، اقدامات ایمنی فعلی برای کنترل هوش مصنوعی تقریباً غیرممکن می‌شود./خبر آنلاین

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *