21 درس (سوم)

خلاصه کتاب: 21 درس برای قرن 21
سه: آزادی


آزادی به عنوان مهمترین ارزش داستان لیبرالیسم، منجر به این باور شده‌است که «رای‌دهندگان بهتر می‌دانند» چون با اراده آزاد خود در انتخابات، تصمیمی منطقی می‌گیرند.

ولی انتخابات همیشه درباره احساسات آدمهاست نه درباره منطق آنان. اگر دموکراسی به معنای تصمیم‌گیری منطقی بود، به هیچ وجه دلیلی برای دادن حق رای مساوی به همه مردم وجود نداشت. یا حتی دادن حق رای به مردم.

پس در واقع احساسات هستند که رای‌دهندگان را هدایت می‌کنند. این دقیقاً پاشنه آشیل لیبرال‌دموکراسی است، چون احساسات چیزی به جز مکانیسم‌های بیوشیمیایی برای محاسبات سریع احتمال بقا و تولیدمثل نیستند.

هیچ شهود یا شمّ غریزی در کار نیست. در گام نخست، مغز به محاسبات روی اطلاعاتی که به دستش رسیده می‌پردازد. اگر مغز مثلاً نتیجه بگیرد که «احتمال» مرگ بالاست، گام دوم، «تولید احساس» ترس در ماست. اگر حاصل محاسبات مغز این باشد که «احتمال» جفت‌شدن با فرد مقابل بالاست، گام دوم، «تولید احساس» جاذبه‌جنسی است. به همین ترتیب، محاسبات مغز درباره «احتمال» بالای توانایی همکاری گروهی، منجر به گام دوم و «تولید احساس» خشم، گناه یا بخشش می‌شود.

در گام نخست، الگوریتم‌های بیوشیمیایی مغز انسان نیز این محاسبات را از تکامل تدریجی مغز در طول هزاران سال به ارث برده‌اند. به همین خاطر احساسات با عقلانیت در تناقض نیستند بلکه احساسات، خودشان «عقلانیت تکاملی» به حساب می‌آیند.

پس لیبرالیسم اشتباه می‌کند. اراده آزادی در کار نیست. منشاء اصلی تمایلات و انتخاب‌های انسان، فرآیندهای بیوشیمیایی مغز هستند که برطبق الگوهایی که از نیاکان‌مان به ارث برده‌ایم، محاسباتی انجام می‌دهند و احساسات و درنتیجه انتخاب‌های ما را رقم می‌زنند.

از طرفی، متاسفانه آنچه برای بقا و تولید مثل نیاکان ما در آفریقا، در یک میلیون سال پیش، خوب بود به درد رفتار ما در قرن بیست و یکم نمی‌خورد.

دقیقاً به همین دلیل، ما به انتخاب‌های الگوریتم‌های کامپیوتری و اخلاقی‌تر بودن تصمیمات بیگ‌دیتا نسبت به انسان‌ها، اعتماد و اطمینان بیشتری داریم. چون کامپیوتر‌ها مثل ما احساس ندارند که دچار اشتباه شوند ولی می‌توانند احساسات ما را بهتر از خودمان مشاهده و تحلیل کنند و به جای ما، تصمیمات منطقی‌تری بگیرند.

اعتماد به تصمیمات الگوریتم‌هایی مثل گوگل‌مَپ، اتومبیل‌های خودران، محاسبات کامپیوتری در پزشکی، آمازون، نتفلیکس و... از این نوع‌اند.

وقتی هوش‌مصنوعی نسبت به انسان، تصمیمات بهتری برای انتخاب شغل، انتخاب همسر و یا انتخاب محل زندگی بگیرد، دیگر داستان زندگی انسان، مثل قبل، داستان تصمیم‌گیری نیست و انتخابات دموکراتیک و بازار آزاد اهمیت کمی خواهند داشت.

بدین‌سان، قدرت از انسان به الگوریتم انتقال پیدا می‌کند.

الگوریتم‌های بیگ‌دیتا در آینده ممکن است در قالب یک رژیم نظارتی کامل، نه‌تنها همه فعالیت‌های بیرونی و اظهارات ما را نظارت کنند، بلکه حتی می‌توانند زیر پوست‌مان بروند تا تجربیات درونی ما را هم کشف کنند.

چنین رژیم نظارتی، نه تنها دقیقاً می‌داند شما چه احساسی دارید، بلکه می‌تواند شما را وادار کند آن‌گونه که او می‌خواهد احساس کنید. ممکن است دیکتاتوری قادر نباشد مراقبت پزشکی یا برابری به شهروندانش بدهد، اما می‌تواند کاری کند که او را دوست داشته و از مخالفانش متنفر باشند. بدین ترتیب دموکراسی مجبور است یا خود را به فرمی اساساً جدید، بازتولید کند یا انسان‌ها در دیکتاتوری دیجیتال زندگی خواهند کرد


البته برخلاف ادعای فیلم‌های علمی‌تخیلی، قرار نیست ربات‌های هوش‌مصنوعی در لحظه‌ای جادویی، هوشیاری و خودآگاهی به دست آورند و با تکیه بر آن، شورش کنند و بشر را به بردگی بگیرند یا از صحنه روزگار محوش کنند. کامپیوترها نیازی به هوشیاری ندارند.

هوش (Intelligence) و هوشیاری (consciousness) دو چیز کاملاً متفاوت‌اند. هوش توانایی حل مسئله است و هوشیاری، توانایی احساس چیز‌هایی چون درد، شادی، عشق و خشم است. در انسان‌ها و دیگر پستانداران، هوش با هوشیاری درهم‌تنیده است و آنها مشکلات را با احساس‌کردن چیزها حل می‌کنند، ولی کامپیوتر‌ها مسائل را فقط با هوش حل می‌کننددرست است، هوش‌مصنوعی برای خدمت به انسان، باید احساسات او را به درستی تحلیل کند،  اما نیازی ندارد که خودش هم آنها را درک و احساس کند.

امروزه ما انسانها نیز از پرورش هوشیاری مان غافل شده ایم. پاسخ‌دادن سریع به ایمیل‌ها، ما را از مزه کردن و لذت بردن از غذایی که می‌خوریم باز می‌دارد و تلاش برای فهمیدن اسرار بازار بورس، ما را از درک علل رنج خود و دیگران غافل می‌کند. اینها بخاطر بی دانشی و بهای کمی است که به مقوله هوشیاری می‌دهیم. ما انسان‌هایی را خلق می‌کنیم که مثل گاو‌های شیرده، حجم عظیمی دیتا تولید می‌کنند ولی همین گاو-دیتاها، تحرک کمتر، کنجکاوی کمتر و چاره‌جویی کمتری می‌کنند.

الگوریتم‌های بیگ‌دیتا با تشکیل دیکتاتوری‌های دیجیتال، تنها خطری هستند که آزادی ما را تهدید می‌کنند


الگوریتم های بیگ‌دیتا می‌توانند نابرابر‌ترین جوامع ممکن را هم خلق کنند. ممکن است همه ثروت و قدرت در دستان یک طبقه ممتاز بسیار کوچک متمرکز شود، در حالی که اکثر مردم نه تنها از بهره‌کشی بلکه از چیزی بسیار بدتر هم رنج ببرند: از بی‌ربطی و بی‌خاصیتی.

نظرات