Iranian Futurist 
Iranian Futurist
Ayandeh-Negar
Welcome To Future

Tomorow is built today
در باره ما
تماس با ما
خبرهای علمی
احزاب مدرن
هنر و ادبیات
ستون آزاد
محیط زیست
حقوق بشر
اخبار روز
صفحه‌ی نخست
آرشیو
اندیشمندان آینده‌نگر
تاریخ از دیدگاه نو
انسان گلوبال
دموکراسی دیجیتال
دانش نو
اقتصاد فراصنعتی
آینده‌نگری و سیاست
تکنولوژی
از سایت‌های دیگر


روبات عصیانگر در شهر بی‌قانون؛ آغاز عصر وحشت

اگر عضو یکی از شبکه‌های زیر هستید می‌توانید این مطلب را به شبکه‌ی خود ارسال کنید:
Twitter Google Yahoo Delicious بالاترین دنباله

[27 Nov 2017]   [ حمیدرضا تائبی]

تا همین چند سال قبل مبحث شخصیت و حقوق قانونی روبات‌ها و هوش مصنوعی موضوعی بود که عمدتاً در فیلم‌های علمی تخیلی شاهد آن بودیم. داگلاس آدامز نویسنده دومین کتاب از سری کتاب‌های Hitchhiker’s Guide to the Galaxy به‌نام «رستوران آخر دنیا» (The Restaurant at the End of the Universe) به داستان آسانسور هوشمندی اشاره می‌کند که قادر است آینده را پیش‌بینی کند. این آسانسور پیش از آنکه مردم درخواست آسانسور کنند، به‌موقع در طبقات مختلف حضور می‌یابد و به مردم سرویس‌دهی می‌کند. این آسانسور هوشمند به‌دنبال آن است تا از هدررفت زمان مردم و تعاملات اجتماعی بی‌هدف آن‌ها در مقابل درب آسانسور ممانعت به عمل آورد و در این زمینه راهگشا باشد.
اما در ادامه، این آسانسور از کار یکنواختی که از صبح تا شب انجام می‌دهد خسته می‌شود و به‌جای آنکه تنها در مسیر عمودی به حرکت خود ادامه دهد، به چپ و راست حرکت می‌کند تا به‌نوعی اعتراض وجودی (Existential Protest) خود را به تصویر بکشد. درست است که ما هنوز چیزی به‌نام آسانسور هوشمند در اختیار نداریم، اما این حرف به‌معنای آن نیست که شرکت‌های بزرگ عرصه فناوری در این زمینه بیکار بوده‌اند. ممکن است این شرکت‌ها نمونه‌های اولیه‌ای از چنین آسانسورهایی را طراحی کرده‌ باشند، اما ما از وجود آن‌ها بی‌خبر هستیم. اگر به پیرامون خود نگاه کنیم، شاهدیم که الگوریتم‌های پیچیده قادرند در حل مسائل و حتی پیش‌بینی وقوع جرایم به ما کمک کنند. نزدیک به یک ماه پیش در زمان نگارش این مقاله اولین روبات وکیل جهان کار خود را به‌شکل گسترده در ایالات متحده آغاز کرد. چت‌باتی که به‌منظور مشاوره دادن به مردم در زمینه مشکلات حقوقی طراحی شده است. اما با ورود به سال 2040 شاهد حضور الگوریتم‌ها و روبات‌هایی به‌مراتب پیچیده‌تر و کارآمدتر خواهیم بود. روبات‌هایی که نه‌تنها در زمینه پیگیری پرونده‌ها و بررسی جرایم کارآمد خواهند بود، بلکه خود این توانایی را خواهند داشت تا جرایمی را مرتکب شوند. در آن زمان، قوانین ما چگونه قادر خواهند بود به جرایم الگوریتم‌های هوشمند رسیدگی کنند؟ راه ‌چاره‌ای برای این مشکل وجود دارد یا از هم‌اکنون باید به عصری سلام گوییم که بر پایه ترس و وحشت پایه‌گذاری خواهد شد؟ آیا بهتر نیست برنامه‌ریزی‌ دقیق و جامعی را برای مشکلی که ممکن است در آینده به یک چالش اصلی تبدیل شود ارائه کنیم؟ برای دستیابی به چنین پاسخ‌هایی باید ابتدا به فکر تعریف شخصیت هوش مصنوعی باشیم.

آیا باید به‌دنبال احقاق حقوق هوش مصنوعی باشیم؟

اگر اخبار مرتبط با هوش مصنوعی را دنبال کرده باشید، به‌خوبی اطلاع دارید که هوش مصنوعی کمتر از 50 سال دیگر یا شاید زودتر از این بازه زمانی به مغز متفکر بسیاری از ماشین‌ها تبدیل خواهد شد. امروزه تعداد سلول‌های عصبی یک شبکه‌ عمیق از تعداد سلول‌های عصبی موجود در مغز موجوداتی همچون زنبور عسل یا سوسک بیشتر است و جالب‌تر آنکه این روند افزایش تعداد سلول‌های عصبی نه‌تنها متوقف نشده است، بلکه یک ماهیت تصاعدی به خود گرفته است. امروزه الگوریتم‌های هوشمندی همانند آنچه گوگل طراحی کرده است قادرند الگوریتم‌های زیستی را در مقیاس بزرگ شبیه‌سازی و حتی کارکردهای مغز انسان را نیز شبیه‌سازی کنند. امروزه دانشمندان روی پروژه‌هایی در حال کار هستند تا شعور و آگاهی انسان را به درون شبکه‌های عمیق عصبی وارد کنند.
به ‌طور مثال، در پروژه‌ای به‌نام OpenWorm دانشمندان به‌دنبال آن هستند تا سیستم اعصاب مرکزی کرم الگانس را بازطراحی کنند. این کرم از آن جهت انتخاب شده است که ما موفق شده‌ایم سیستم عصبی این موجود را به ‌طور کامل نقشه‌برداری و تحلیل کنیم. سال گذشته میلادی از 175 متخصص برتر حوزه هوش مصنوعی این سؤال پرسیده شد که نظر آن‌ها در ارتباط با هوش مصنوعی چیست؟ در این نظرسنجی عده‌ای اعلام داشتند تا سال 2040 هوش مصنوعی هم‌تراز با هوش انسانی خواهد شد. 90 درصد این افراد نیز اعلام داشتند تا سال 2075 این اتفاق رخ خواهد داد. این حرف به‌معنای آن است که تا پیش از رسیدن به این سال‌ها هوش مصنوعی از هوش حیوانی پیشی خواهد گرفت و به همین دلیل است که این فرضیه مطرح شده است که همان گونه که ما برای حیوانات حقوقی قائل هستیم، برای هوش مصنوعی نیز باید چنین حقوقی را در نظر بگیریم. به این ترتیب، باید ابزارهایی همچون آسانسورهای هوشمند را ملزم کنیم مطابق با قوانین وضع شده تنها در حالت عمومی حرکت کنند
بیل تامسون نویسنده نام‌آشنای حوزه فناوری چند سال قبل گفت: «اگر به‌دنبال آن باشیم تا هوش مصنوعی کاملاً مطیع را توسعه دهیم، به‌طوری که همیشه فرمان‌بر باشد، در عمل هیچ‌گاه موفق نخواهیم شد هوش مصنوعی مستقلی را طراحی کنیم.»

هوش مصنوعی در آینده دوست خواهد بود یا دشمن؟

بسیاری از کارشناسان حوزه فناوری بر این باورند که درباره هوش مصنوعی و خطرات آن کمی اغراق شده است. به ‌طوری که هوش مصنوعی آن‌ گونه که در فیلم‌ها به آن پرداخته شده است، هیچ‌گاه قادر نخواهد بود جوامع بشری را در معرض تهدید جدی قرار دهد. اما واقعیت این است که فناوری می‌تواند به یک ماهیت ترسناک تبدیل شود. به‌ویژه زمانی که با ماهیتی روبه‌رو می‌شویم که جدید و قدرتمند بوده و با سؤالات مبهم بسیاری احاطه شده است. در حالی که فیلم‌هایی همچون نابودگر و غرب وحشی بیشتر بر جنبه سرگرمی هوش مصنوعی متمرکز بودند، اما دورنمایی اجمالی از آینده و خطراتی را برای ما به تصویر کشیده‌اند که ممکن است در آینده ما وارث آن باشیم. تا به امروز موضوعات مختلفی در ارتباط با هوش مصنوعی مورد بررسی قرار گرفته است و کارشناسان راهکارهای بازدارندگی مختلفی را در ارتباط با این فناوری پیشنهاد داده‌اند، اما در این میان نباید از نقش قانون و کارکرد آن در این زمینه غافل شویم. با وجود اطلاع‌رسانی‌های متعدد و هشدارهای مختلف هنوز هم کارشناسان حوزه فناوری درباره چالش‌ها و خطراتی که در آینده از جانب روبات‌های پیشرفته ممکن است ما را در معرض تهدید قرار دهند، دیدگاه‌های متفاوتی دارند. اما واقعیت این است که فناوری‌های مستقلی که قادرند به‌طور مستقیم به ما آسیب وارد کنند، در عصر کنونی نیز پیرامون ما قرار دارند. از پهپادهای نظامی گرفته تا روبات‌های مجری قانون همواره این احتمال وجود دارد که این ابزارهای هوشمند مرتکب اشتباهی ناخواسته شوند. به ‌طوری که ممکن است یک فرد مظنون را به قتل برسانند و در ادامه مشخص شود شخص مذکور بیگناه بوده است. در همه این موارد روبات‌ها ضمن آنکه به مردم آسیب وارد می‌کنند به‌واسطه خطاهای نرم‌افزاری یا سهل‌انگاری اپراتور مسئول مرتکب عملی متضاد با هنجارهای جامعه می‌شوند. به عبارت دقیق‌تر، این روبات‌ها یک جرم را مرتکب می‌شوند.
جمله معروفی در این زمینه وجود دارد که می‌گوید: «هر جا فرد خطاکاری وجود داشته باشد، یک فرد مدعی نیز حضور دارد.» اما اگر روزگاری روباتی اشتباهی را مرتکب شود، چه کسی را باید مقصر بدانیم؟ ممکن است در مقطع کنونی به‌دلیل بیش از حد انتزاعی بودن این موضوع بتوانیم از کنار آن راحت عبور کنیم. اما نباید از این موضوع غافل شویم که چندی پیش روباتی به‌خاطر خرید مواد مخدر دستگیر شد، اما بدون هیچ‌گونه اتهامی آزاد شد. ماشین خودرانی که شرکت تسلا آن ‌را طراحی کرده بود، باعث مرگ راننده وسیله نقلیه شد. اما سازمان ملی ایمنی ترافیک حکم خاصی در این خصوص صادر نکرد. ممکن است در مقطع فعلی مواردی که به آن‌ها اشاره شد جزء موضوعات خاص و نادر باشند، اما زمانی که چنین فناوری‌هایی همه‌گیر شوند و چنین اتفاقاتی رخ دهد، چه کسی مسئول بروز چنین مشکلاتی خواهد بود؟

روبات‌های گناهکار

نقش قانون را در ارتباط با روبات‌ها از زوایای مختلفی می‌توان مورد بررسی قرار داد. اما قانون مرتبط با روبات‌ها درنهایت باید به گونه‌ای به تصویب برسد که انتظارات آحاد جامعه را برآورده سازد. در جوامع بشری زمانی که به فردی حمله می‌شود، شخص مذکور از فرد مهاجم شکایت می‌کند و انتظار دارد فرد خاطی به سزای اعمال خود برسد. امروزه رانندگان وسایل نقلیه خودشان تصمیم می‌گیرند چه زمانی سرعت وسیله نقلیه را افزایش دهند یا از محدوده سرعت مطمئنه عبور کنند. در چنین شرایطی اگر مرتکب تخلفی شویم، از دیدگاه قانون ما مقصر هستیم. اما زمانی که مالک یک ماشین خودران می‌شوید و تصمیم‌گیری‌ها بر عهده ماشین قرار می‌گیرد، همه چیز متفاوت می‌شود. اگر ماشین به ‌طور ناخواسته با سرعتی مافوق تصور به حرکت ادامه دهد و خسارت‌هایی را به بار آورد، چه کسی مقصر است؟ مالک ماشین؟ سازنده‌ای که ماشین را ساخته است؟ توسعه‌دهنده‌ای که الگورتیم هوشمند را نوشته است؟ و... امروزه قانون به دستیاران شخصی همچون آلکسا، سیری یا کورتانا یا چت‌بات‌های هوشمند به‌عنوان یک شخص واقعی نگاه نمی‌کند، زیرا این الگورتیم‌های هوشمند در حال حاضر قادر نیستند آسیب جدی به ما وارد کنند یا جرمی مرتکب شوند. اما اگر فرزندان پیشرفته‌تر این دستیاران شخصی در آینده آسیب‌های واقعی به ما وارد کنند، چه اتفاقی رخ خواهد داد؟
هوش ‌مصنوعی می‌تواند ذهن مجرمانه داشته باشد؟

برای آنکه بتوانیم به این پرسش پاسخ دهیم، ابتدا باید به دو سؤال پیش‌نیاز به این پرسش پاسخ دهیم. زمانی که روبات‌ها عملی انجام می‌دهند که باعث آسیب مردم می‌شود یا به‌نوعی ضرر و زیانی را متحمل آن‌ها می‌کند، چه کسی مسئول است؟ دوم آنکه در زمینه وقوع جرم ما همواره به‌دنبال انگیزه و نیت انجام عمل هستیم. اگر یک روبات یا در حالت‌ کلی‌تر یک ماشین هوشمند خود به‌تنهایی مرتکب جرمی شود، قانون باید چگونه به این جرم رسیدگی کند؟ اگر ماشین‌ها به وکلایی نیاز داشته باشند، این وکلا چگونه باید نیت جرم را تشریح یا آن ‌را رد کنند؟ آیا قوانین امروزی حاکم بر جوامع بشری می‌توانند به چنین جرائمی رسیدگی کنند؟ (البته اگر فرض کنیم وکلای روبات‌های خطاکار خود یک الگوریتم هوشمند نباشند!)

عدالتی برای هوش مصنوعی

امروزه ماشین‌های خودران تنها در صورتی می‌توانند در جاده‌ها به تردد بپردازند که یک عامل انسانی پشت فرمان نشسته باشد. این قانونی است که برای امنیت مردم تصویب شده است. اما زمانی که ماشین‌ها به ‌طور کامل خودکار شوند، باید قوانین جامع‌تری وضع شود تا نحوه تعامل انسان و ماشین را مورد بررسی قرار دهند. مشخص است روزگاری که هوش مصنوعی بر هوش انسانی غلبه کند، از کنترل ما خارج خواهد شد. در چنین برهه زمانی دیگر ما کنترلی بر ماشین‌های خودران نخواهیم داشت و همواره از بابت خسارات‌هایی که ممکن است به بار آورند در هراس خواهیم بود. در آن زمان خواهیم گفت چگونه می‌توانیم ماشین‌های خودران را مجازات کنیم؟ ممکن است در فیلم‌ها و داستان‌های کمیک با دورنمایی از خطرات هوش مصنوعی آشنا شویم، اما تدوین قانونی در ارتباط با تخطی هوش مصنوعی از دستورالعمل‌ها موضوعی نیست که با نگاه به چند فیلم بتوان آن ‌را نگارش و تصویب کرد. آیا روبات‌ها روزی این توانایی را خواهند داشت تا جرمی را مرتکب شوند؟ پاسخ این پرسش مثبت است. اگر یک روبات انسانی را به قتل برساند، در واقع یک جرم را از دید ما مرتکب شده است. اما از دید یک روبات او یک عنصر مادی را حذف کرده است. در نتیجه به‌لحاظ فنی باید بگوییم روبات تنها نیمی از یک جرم را مرتکب شده است، به‌واسطه آنکه اثبات اینکه انگیزه او از انجام این عمل چه بوده است کاملاً پیچیده خواهد بود. این پیچیدگی را هم‌اکنون نیز می‌توانیم مشاهده کنیم؛ زمانی که مهندسان هوش مصنوعی گوگل با صراحت اعلام می‌دارند به‌درستی نمی‌دانند الگوریتم هوشمند آن‌ها بر مبنای چه قاعده‌ای یک راه‌ حل را پیشنهاد داده است.
در نتیجه به این پرسش اساسی می‌رسیم که چگونه می‌توانیم از انگیزه و نیت یک روبات پیش از وقوع یک جرم اطلاع پیدا کنیم؟ ممکن است امروزه در زمینه ساخت روبات‌های انسان‌‌نما با محدودیت‌هایی روبه‌رو باشیم، اما بدون تردید امروزه الگوریتم‌هایی را مشاهده می‌کنیم که در بعضی موارد به‌شکلی تبعیض‌آمیز با مردم برخورد می‌کنند. (شکل 2) (برای اطلاع در این خصوص به پرونده ویژه خرداد ماه ماهنامه شبکه مدیریت الگوریتم/ شورش الگوریتمی مراجعه کنید.)
به‌ طور مثال، فرض کنید روباتی همچون نابودگر فردی را به قتل برساند. در چنین موردی نباید به‌دنبال اثبات جرم باشیم، بلکه باید به‌دنبال نیت و انگیزه باشیم. در این حالت به پرسشی چالشی‌تر می‌رسیم که چگونه می‌توانیم از روبات‌ها همانند انسان‌ها بازجویی کنیم؟ آیا باید به درون لایه‌های مختلف شبکه عصبی آن‌ها برویم و کدهای شرکت سازنده را مورد بررسی قرار دهیم؟ اما پرسشی بدیهی‌تری نیز وجود دارد. اساساً مغز و ذهن روبات چگونه به‌سمت ارتکاب جرمی همچون جنایت متمایل می‌شود؟ وکلا چگونه می‌توانند ثابت کنند که یک روبات برای دفاع از خود مرتکب قتل شده است یا برعکس روبات تا چه اندازه به‌عمد این ‌کار را انجام داده است. اگر به‌دنبال آن هستیم تا بر مشکلات و چالش‌هایی که در آینده ممکن است از جانب هوش مصنوعی ما را تهدید کند فائق آییم، چاره‌ای نداریم جز اینکه در ابتدا برای این عامل‌های هوشمند حقوق و هویت قانونی در نظر بگیریم.
ابزارهای هوشمند به قوانین هوشمند نیاز دارند

در مقطع فعلی در بسیاری از کشورها دستگاه قضا با ابزارهای غیرهوشمند روبه‌رو است و ترجیح می‌دهد اوضاع بر همین منوال باشد. در حال حاضر، زمانی که فردی با سلاح گرم مرتکب جرمی می‌شود، قوانین فرد خاطی را مجرم می‌دانند نه خود اسلحه را. زمانی که سلاحی به‌واسطه یک نقص فنی در دستان صاحب خود منفجر می‌شود، شرکت سازنده مورد بازخواست قرار می‌گیرد. چنین موضوعی درباره روبات‌ها نیز صادق است. اگر به دهه 80 میلادی بازگردیم، به شرکتی برخورد می‌کنیم که یک روبات آموزش‌دهنده تنیس به‌نام Athlone را ساخته بود. این روبات با عملکرد خشنی که از خود نشان داد، خبرساز شد و کار به دادگاه کشید. در آن زمان قاضی اعلام کرد این امکان وجود ندارد که بتوان از روبات‌ها شکایت کرد، در نتیجه مدیران شرکت مقصر اصلی این پرونده هستند. مشابه چنین پرونده‌ای در سال 2009 و این بار برای یک راننده رقم خورد. راننده‌ای از طریق سامانه موقعیت‌یاب به جاده‌ای کوهستانی می‌رسد و گم می‌شود، به ‌طوری که درنهایت برای بازگشت از نیروهای پلیس کمک می‌گیرد. زمانی که راننده به‌دلیل عملکرد ضعیف فناوری موقعیت‌یاب شکایت می‌کند، دادگاه راننده را به کم‌توجهی در رانندگی متهم می‌کند.
واقعیت این است که فناوری‌هایی که در گذشته مورد استفاده قرار می‌دادیم، با فناوری‌هایی که در زمان حال و آینده مورد استفاده قرار می‌دهیم تفاوت‌های بسیاری دارند. دستگاه‌های هوشمندی همچون ماشین‌های خودران یا روبات‌ها دیگر همچون گذشته ابزارهای دردست انسان‌ها نیستند. این ابزارها قادرند به‌صورت مستقل عمل و تصمیم‌گیری کنند. این دستگاه‌ها با استناد به الگوریتم‌های هوشمند داده‌ها را جمع‌آوری می‌کنند و بر مبنای دانشی که به دست می‌آورند فعالیتی را انجام می‌دهند. در نتیجه در زمان بروز پیامد ناگواری نمی‌‌توان با صراحت سازنده را مقصر دانست.
دیوید ولادک استاد حقوق دانشگاه واشنگتن می‌گوید: «با توجه به اینکه امروزه افراد و شرکت‌های مختلفی در پیشبرد هوش مصنوعی ایفاگر نقش هستند، به‌سختی می‌توان یک فرد یا سازمان خاصی را مسئول بروز پیشامدی دانست. با توجه به اینکه امروزه اکثر سامانه‌های هوش‌مصنوعی به‌شکلی کاملاً بسته آماده عرضه می‌شوند، ما در عمل قادر نیستیم مکانیسمی را که این سامانه‌ها بر مبنای آن کار می‌کنند تحلیل کنیم.» شان بایرن استاد حقوق دانشگاه فلوریدا در این ارتباط می‌گوید: «امروزه هوش مصنوعی به‌دلیل نبود قوانین صریح و روشنی در این زمینه، این شانس را دارد تا مدیر عامل شرکتی با مسئولیت محدود شود. در این حالت هوش مصنوعی صاحب یک شخصیت حقوقی می‌شود و اگر چنین باشد، به بحث مالیات گرفتن از هوش مصنوعی می‌رسیم. در نتیجه باید بگوییم صحبت‌های آقای بیل گیتس درخصوص دریافت مالیات از روبات‌ها رنگ واقعیت به خود خواهد گرفت. اما به این نکته توجه داشته باشید که اگر به هوش مصنوعی شخصیت حقوقی بدهید، این احتمال وجود دارد که سازندگان آن در ساخت آن جانب احتیاط را کمتر رعایت کنند، به‌دلیل اینکه به‌خوبی می‌دانند اگر مشکلی به وجود آید، دیگر آن‌ها مقصر شناخته نخواهند شد. همچنین، ما نمی‌توانیم هوش مصنوعی را همانند یک انسان مجازات یا به زندان منتقل کنیم. این حرف هیچ معنای خاصی ندارد.»
دکتر جان داناهر استاد حقوق دانشگاه NUI Galway بر این باور است که در مقطع فعلی نباید درباره شخصیت حقوقی روبات‌ها صحبت کنیم. در آینده به‌دلیل تبعیضات اجتماعی و شغلی که ممکن است از جانب الگوریتم‌های هوشمند رخ دهد، سلب مسئولیت از سازندگان را به همراه خواهد داشت. اما دیدگاه‌های متفاوتی نیز در این زمینه وجود دارد. یووال نوآ حراری نویسنده کتاب:
Sapiens: A Brief History of Humankind and Homo Deus: A Brief History of Tomorrow
می‌گوید: «حتی اگر هوش مصنوعی هیچ‌گاه به سطحی از آگاهی و درک کامل دست پیدا نکند، باز هم به‌لحاظ یک سری موارد سیاسی، اقتصادی و بین‌المللی باید برای آن شخصیت و حقوق قائل شد. درست به همان شکل که برای شرکت‌ها و سازمان‌ها تعریف مشخص و قوانین مشخصی داریم، هوش مصنوعی این پتانسیل را دارد تا بر سازمان‌ها و حتی کشورها تسلط پیدا کند.»

مفهوم زندان برای روبات‌ها معنای خاصی ندارد

تخلفات روبات‌ها و هوش مصنوعی تنها در ارتباط با جرایم خشن خطرناک نیستند. روبات‌ها و الگوریتم‌های هوشمند در آینده می‌توانند از کارت اعتباری شما برای خرید کالای قاچاق استفاده کنند. این یک داستان‌بافی ساده‌انگارانه نیست. چندی پیش دو طراح در کشور انگلستان روباتی را طراحی کردند که به‌صورت تصادفی تصمیم گرفت از وب تاریک محصولاتی را خریداری کند. به نظر شما این روبات به‌دنبال خرید چه چیزی بود؟ این روبات تقریباً همه چیز را خریداری می‌کرد. اکنون سازندگان این روبات مقصر خریدهای او هستند یا خود تصمیم گرفته است اقلام غیرقانونی را خریداری کند؟ شاید کمی خنده‌دار به نظر برسد روباتی را به زندان بفرستیم و برای او حکم حبس ابد یا 30 سال زندان در نظر بگیریم، به‌واسطه آنکه هیچ‌گاه پیر نشده و دل‌بستگی خاصی ندارد.
مهم‌تر از این مسئله این امکان وجود دارد که روبات‌های زندان‌بان نیز تحت تأثیر روبات‌های مجرم قرار بگیرند. اگر روباتی جرمی را مرتکب شود، به‌معنای آن است که از الگوریتم قوی‌تری استفاده می‌کند که می‌تواند بر اوضاع مسلط شود. شاید بهترین راهکار تنبیه یک روبات این باشد که کدهای آن ‌را به گونه‌ای بازنویسی کرد که دومرتبه مرتکب جرمی نشود

مطلب‌های دیگر از همین نویسنده در سایت آینده‌نگری:


منبع: 100


بنیاد آینده‌نگری ایران



سه شنبه ۲۱ آذر ۱۳۹۶ - ۱۲ دسامبر ۲۰۱۷

تکنولوژی

+ صوفیا، ربات شهروند تمایل به تشکیل خانواده دارد! 

+ روبات عصیانگر در شهر بی‌قانون؛ آغاز عصر وحشت حمیدرضا تائبی

+ اسکلت‌ پوشیدنی شنوا برای معلولین مهدی صنعت‌جو

+ سازمان ملل، هوش مصنوعی را زیر نظر می‌گیرد مهدی صنعت‌جو

+ عطش ساختن فردا  سید کامران باقری

+ کارخانه های آینده | کسب و کاری با فناوری چاپ سه بعدی 

+ تكنولوژى‌آموزشى‌ يا‌تكنولوژى‌يادگيرى 

+ با این لباس هوشمند گرم می‌شوید 

+ خطر هک‌شدن خودروهای هوشمند جدی است 

+ آیا هوش مصنوعی بزرگترین تهدید برای تمدن بشری است؟ مهدی صنعت‌جو

+ انسان یا محصول، نسل‌های آینده کدامند؟ حمیدرضا تائبی

+ این روبات 500 برابر سریع‌تر از انسان کار می‌کند حمید نیک‌روش

+ جلوگیری از تصادفات منجر به مرگ خودران‌ها با تصمیم‌گیری به سبک انسان حمید نیک‌روش

+ کدام شغل‌ها تا ۱۰ سال آینده نابود می‌شوند؟ حمیدرضا تائبی

+ از این پس هوش مصنوعی مصدومیت‌های ورزشکاران را پیش‌بینی می‌کند حمیدرضا تائبی

+ هوش مصنوعی خودسر!/ آیا ترس دانشمندان به واقعیت بدل می‌شود؟ 

+ آیا در نهایت ماشین ها میتوانند پیش داوری و تعصب داشته باشند؟ 

+ تجاری‌سازی فناوری رابط مغز و کامپیوتر 5 دستاورد مهم دارد 

+ این ربات خیلی راحت و سریع خودروی شما را پارک می کند! +تصاویر 

+ استفاده از ربات‌ها در صنعت بیمه 

+ پایان عصر نفت! بهزاد احمدی نیا

+ چاپ 3 بعدی استخوان مصنوعی 

+ تولید دست مصنوعی 15 دلاری 

+ انسان‌ها و هوش مصنوعی همزیستی مستقل را تجربه خواهند کرد حمیدرضا تائبی

+ روبات‌ها به یکدیگر مهارت‌های جدید را یاد می‌دهند حمید نیک‌روش

+ دختر یازده ساله در نشست سالانه سهامدارن مایکروسافت چه سوالی مطرح کرد؟ حمیدرضا تائبی

+ بیشتر از ۸۰ درصد مشاغل امروزی تا چند سال آینده از بین می‌روند! حمید نیک‌روش

+ انقلاب الکترونیک , یا چگونه قاره آسیا زباله دان جهان شد 

+ فناوری های تشخیص هویت. صالح سپهری‌فر

+ رانندگی در واقعیت افزوده فرانک فراهانی جم

+ با بمب الکترومغناطیسی آشنا شویم 

+ ساخت جوهر از آلودگی هوا! 

+ خانه‌ای که در باد می‌رقصد+تصاویر 

+ مرکز تخصصی بازی‌های رایانه‌ای به حوزه درمان و امنیت وارد می‌شود 

+ ویژگی‌های بایسته معلمان در بهبود فرآیند یاددهی-یادگیری مدارس هوشمند 

+ جهان در 150 سال آینده چگونه خواهد بود؟. 

+ آینده نگری در مدیران IT 

+ بازی پیامکی و محتوای آموزشی - سرگرمی برای آینده پژوهی وحید وحیدی مطلق

+ ماشین هایی هوشمند تر از انسان 

+ مجازی بودگی و قدرت «دولت موبایل» داود زارعیان

+ تکنولوژی های آینده چگونه خواهند بود؟ عرفان کسرایی

+ انقلاب صنعتی چهارم در راه است احمد علوی

+ بررسی رابطه ی بین سناریو های تکنولوژی با داستان های علمی- تخیلی با نگاهی به چرخه ی روبوت آسیموف و فضای سایبری گیبسون مریم اخوی

+ آیا حضور ربات‌ها را در زندگی‌مان خواهیم پذیرفت؟ جین ویکفیلد - بی‌بی‌سی

+ ﺗﻌﺎرض دو ﻧﮕﺮش در ﻓﻠﺴﻔﮥ ﺗﮑﻨﻮﻟﻮژی و ﭘﮋواک آن در ﻓﻀﺎی ﻓﮑﺮی اﯾﺮان رهبر محمودزاده

+ روبات های پرستار در راه اند...مزایا ، معایب و خطرات صالح سپهری فر

+ سیر تحولی علم و تکنولوژي بعد از جنگ جهانی دوم الکساندر کینگ

+ ضرورت ارزیابی اخلاقی تکنولوژی های نوین ارتباطی وحیده علی پور

+ فیسبوک چگونه با استفاده از هوش مصنوعی تصاویر را برای نابینایان قابل درک می کند؟  مریم موسوی

+ چيني ها آيفون توليد مي کنند نه استيو جابز جوزف ناي

+ بهبود الگوی زندگی در مساله انرژی و تکنولوژی جلال نبهانی‌زاده

+ برای زندگی درکنار ربات ها آماده اید؟ شهرام یزدان پناه

+ دوران رباتی میترا بهاری

+ دسترسی ۵۰ درصدی کشورهای در حال توسعه به اینترنت باندپهن 

+ ﺗﻜﻨﻮﻟﻮژي اﺟﺘﻤﺎﻋﻲ ﺟﺮﻳﺲ ﻫﻨﺴﻮن اوﻣﺎﻧﺎروﻻ

+ ﺗﻜﻨﻮﻟﻮژي در ﻛﺸﻮرﻫﺎي در ﺣﺎل ﺗﻮﺳﻌﻪ ﺟﺮﻳﺲ ﻫﻨﺴﻮن اوﻣﺎﻧﺎروﻻ

+ فناوری اطلاعات در سازمان ها و ادارات شهاب وهابزاده

+ جنگ‌‌‌ بر ‌‌پایه ‌‌فناوری ‌‌اطلاعات‌ فریبا فرهادیان‌

+ تأملی دوباره در مفهوم اطلاعات و دانش: با تأکید بر حوزۀ علم اطلاعات و دانش شناسی مریم صابری

+ فهم سواد اطلاعاتي Barbara Humes

+ فناوری اطلاعات در حال ایجاد تحولی انقلابی در محصولات است روشنگری مدیریت اینترنت اشیاء

+ سبقت کتابهای الکترونیکی از کتابهای چاپی تا ۲۰۱۸ 

+ انقلاب اینترنت اشیا در سال ۲۰۲۰ 

+ نقش فناوری اطلاعات در سازمان‌های امروزی 

+ نابرابری دیجیتالی 

+ آینده پژوهی و چالشهای صنعت نساجی  فاطمه رئيسي 1 ، احسان قرباني 2 ، محمد قانع، فاطمه معدني

+ فناوری نسل آینده مترجم: فرناز رجبی مهر

+ نسل جديد خانه‌هاي خورشيدي 

+ خانه‌هایی که از صاحبان‌شان باهوش‌ترند 

+ افزایش شدت حملات سایبری در دهه آینده 

+ هرآنچه که درباره اینترنت اشیا می‌دانیم  زومیت

+ سفری به دنیای آینده 

+ روبات به جای انسان مترجم : علیرضا سزاوار

+ نفی نگاه صرفا اقتصادی برای‌ طرح‌ریزی سیاست صنعتی کشور حمیدرضا رضایی

+ صنایع الکتریکی و الکترونیکی جزو الویت‌های اول صنعت کشور محمد امین آجورلو

+ مهمترین تحولات صنعت پالایش نفت آمریکا؛ از دیروز تا امروز پیام کهتری

+ جوانان را نباید برای کارمند شدن تربیت کنیم سورنا ستاری

+ برنامه‌های سوئیس برای توسعه دیپلماسی علمی (۱) 

+ آخرین هشدارهای وایبری  ندا داوودی

+ سایبورگ: آدم‌هایی که ماشین می‌شوند بی بی سی

+ محصولات تکنولوژی جدید در سال 2015 

+ زمان در اتاق های گپ  

+ بدافزاری که از هشت سال پیش فعال بوده است  

+ جایگاه باورنکردنی ایران در سرعت اینترنت! 

+ دیجیتالی شدن 

+ ۷ نوآوری بزرگ متحول کننده زندگی بشر  

+ با 5 فناوری خانه‌های آینده هوشمند می‌شود میثم لطفی

+ ۱۰ فناوری شگفت‏انگیز در آستانه‏ پیدایش  ترجمه: سید علیرضا حجازی

+ اختراعاتی که غذاخوردن را متحول می‌کنند 

+ این پرنده های ​هوشمند، ​خودشان تصمیم می گیرند airspacemag

+ نخستین کلیه مصنوعی پوشیدنی جهان در راه بازار 

+ نخستین کلیه مصنوعی پوشیدنی جهان در راه بازار 

+ انهدام کامل اطلاعات علی حسینیان

+ جستجوی اطلاعات یا اطلاع یابی 

+ ۱۰ قابلیت جدید ویندوز ۱۰ 

+ باورهای تکنولوژیک استیو جابزچه بود؟  ویوان نیوز

+ ارتش روبات ها در مهدکودک  ترجمه؛ نسترن صائبی

+ گوشی‌های هوشمندی که جلو‌ گلوله‌ها را گرفتند! 

+ آیا روبات ها جای انسان را می‌گیرند؟  سید ایمان ضیابری

+ چرا آینده به ما نیاز ندارد؟  بیل جوی



info@ayandehnegar.org
©Ayandehnegar 1995