اخلاق هوش مصنوعی (به انگلیسی: Ethics of artificial intelligence) بخشی از اخلاق تکنولوژی است که به صورت خاص به ربات و هوش مصنوعی مربوط میشود، و بیشتر راجع به نحوه رفتار و عملکرد انسان با هوش مصنوعی و بالعکس آن است.
در اخلاق هوش مصنوعی به بررسی حقوق رباتها و درستی یا نادرستی بر جایگزین شدن آنها در نقشهای انسانی میپردازیم.
اصطلاح «رباتیک» در سال ۲۰۰۲ ابداع شد. با اشاره به سیرت ساختن، شکل دادن، رفتار کردن و استفاده کردن از رباتها. و به عبارت دیگر دربارهٔ این که چگونه رباتها میتوانند برای انسان مفید یا مضر باشند صحبت میکند. بنابر پیشبینی و با توجه به روند زیاد شدن تعداد رباتها گمان میرود که تا سال ۲۰۳۰ تعداد رباتها به شکل قابل توجهی زیاد شود همانطور که رشد ۲۴ درصدی را در سال ۲۰۱۴ در تعداد رباتها مشاهده شد.
حقوق رباتها انتظار اخلاقی آنها در قبال جامعه و دیگر ماشینها است و به مانند حقوق بشر یا حقوق حیوانات میباشد و ممکن است شامل حق زندگی، آزادی، آزادی اندیشه، آزادی بیان و برابری در برابر قانون باشد. این موضوع توسط اندیشکده موسسهای برای آینده و وزارت تجارت و صنعت انگلستان در حال پیگیری است.
کارشناسان اختلاف نظر دارند که آیا قوانین خاص و دقیق به زودی مورد نیاز خواهد بود یا با آسودگی در آینده دور میتوان به آن فکر کرد. گلن مک گی گفته بود به نظر میرسد تا سال ۲۰۲۰ ممکن است به اندازه کافی روبات انسان نما وجود داشته باشد. ری کورزویل تاریخ احتمالی این واقعه را در سال ۲۰۲۹ میبیند. گروه دیگری از دانشمندان در جلسه ای در سال ۲۰۰۷ به این نتیجه رسیدند که حداقل ۵۰ سال طول خواهد کشید تا بشر بتواند سیستمی با هوش سطح بالا تولید کند و موجودات هوشمند انسان ساز وجود داشته باشند.
قوانین سال ۲۰۰۳ مسابقه جایزه لوبنر به صراحت این مشکل را دربارهٔ مالکیت و حقوق رباتها مطرح کرده بود:
قانون شماره ۶۱. اگر در هر سالی، یک پروژه نرمافزار متن باز وارد شده از طرف دانشگاه سوری یا دانشگاه کمبریج برنده مدال نقره یا مدال طلا شود، آنگاه مدال و جایزه نقدی مسابقه به افرادی اهدا خواهد شد که مسئولیت توسعه آن پروژه یا نرمافزار را داشتهاند. اگر هیچ فردی به این عنوان تشخیص داده نشد یا اختلاف نظری میان تعداد دو یا بیشتر کاندیدا برای مسئول بودن پروژه وجود داشت. مدال و جایزه نقدی نگه داشته خواهد شد تا زمانی که آن پروژه به صورت قانونی دارای صاحب شود و آنگاه مدال و جایزه به صورت قانونی اهدا خواهد شد.
الکساندر سولژنیتسین در رمان اولین دایره تکنولوژی تشخیص گفتار را توصیف کرد که در خدمت حکومت استبدادی بود و مکالمات انسانها را تهدید میکرد. اگر یک برنامه هوش مصنوعی وجود داشته باشد که توانایی درک طبیعی زبان و گفتار (مثلاً زبان انگلیسی) را داشته باشد پس به صورت نظری با قدرت پردازش مناسب میتواند به هر مکالمه تلفنی گوش بدهد و هر ایمیلی را در جهان بخواند و آن را درک کند و به برنامه اپراتور دقیقاً آنچه گفته شدهاست و دقیقاً آن کس که آن را گفتهاست را گزارش دهد. برنامه هوش مصنوعی مانند این مورد میتواند به دولتها یا نهادها کمک کند تا مخالفان خود را سرکوب کنند و کاملاً یک تهدید برای حریم خصوصی محسوب میشود.
همانطور که در بسیاری از فیلمها و داستانهای علمی تخیلی دیده میشود. همواره فکر تهدید نسل بشر توسط رباتها در هنگام بلوغ فکری و هوشی آنها بعد از مطرح شدن هوش مصنوعی وجود داشته. اما بعد از انتشار برخی از پیشبینیها مانند جایگزین شدن ۴۵ درصدی سربازان انسانی نظامی به سربازان ربات تا سال ۲۰۲۵ این نگرانیها شکل جدی تری به خود گرفت. از آن جا که تا سال ۲۰۳۰ احتمال دارد درصد بسیار زیادی از کارگران و مجریان اجتماع رباتها باشند در صورت شورش یا اغتشاشی از جانب آنها ممکن است نسل و نژاد انسان به خطر بی افتد. در این صورت شاید باید قوانینی مبنی بر محدود کردن دایره تفکر، احساس، خودمختاری و آزادی رباتها بنا گذاشت.
یوسف ویزینبام در سال ۱۹۷۶ بیان کرد که تکنولوژی هوش مصنوعی نباید به جای انسان در موقعیتهای که نیاز به توجه و مراقبت و احترام دارند استفاده شوند مانند هر یک از این موارد:
ویزینبام توضیح میدهد که ما در این موقعیتها نیاز به احساس همدلی و درک متقابل از فرد داریم. اگر در این کارها ماشینها جای انسان را بگیرند ما خود را نسبت به آنها بیگانه میدانیم، احساس کم ارزشی و فرسودگی میکنیم. هوش مصنوعی اگر در این راه استفاده شود یک تهدید برای کرامت انسانی محسوب میشود.
پاملامککوردوک در هنگام سخنرانی با زنان بیان کرد "من میخواهم شانسم را با یک کامپیوتر بی طرف امتحان کنم " که به این اشاره میکرد که قضاوت یک کامپیوتر به عنوان یک قاضی یا پلیس بیطرف است و غرایز انسانی در آن دیده نمیشود. بنیانگذار هوش مصنوعی جان مک کارتی نتیجهگیری اخلاقی ویزینبام را نقد میکند. "هنگامی که اخلاقیات انسان مبهم و ناکامل است، موجب میشود که گاهی استبداد را فرا خواند ".
بیل هیبارد مینویسد: «کرامت انسانی مستلزم آن است که ما برای خلاص شدن از جهل نسبت به موجودات جهان تلاش کنیم و هوش مصنوعی برای این تلاش لازم است.»
بیل هیبارد میگوید که به دلیل این که هوش مصنوعی تأثیر عمیقی بر انسانیت دارد، بنابراین توسعه دهندگان هوش مصنوعی نماینده انسانیت در آینده هستند و به همین دلیل باید تعهد اخلاقی آنها در تلاششان به وضوح مشخص باشد. بن گویرتزل و دیوید هارت OpenCog را به عنوان یک منبع باز برای توسعه هوش مصنوعی ایجاد کردند. OpenAI یک شرکت تحقیقاتی هوش مصنوعی غیرانتفاعی ایجاد شده توسط ایلان ماسک، سام آلتمن و افرادی دیگر است که به منظور توسعه هوش مصنوعی به صورت منبع باز برای بهبود آینده بشریت فعالیت میکند. و همچنین تعداد بسیار زیادی شرکتهای منبع باز دیگر برای این اهداف وجود دارند.
This article uses material from the Wikipedia فارسی article اخلاق هوش مصنوعی, which is released under the Creative Commons Attribution-ShareAlike 3.0 license ("CC BY-SA 3.0"); additional terms may apply (view authors). محتوا تحت CC BY-SA 4.0 در دسترس است مگر خلافش ذکر شده باشد. Images, videos and audio are available under their respective licenses.
®Wikipedia is a registered trademark of the Wiki Foundation, Inc. Wiki فارسی (DUHOCTRUNGQUOC.VN) is an independent company and has no affiliation with Wiki Foundation.