مدل‌های ریاضیاتی به منزلۀ سلاح‌های کشتار جمعی

اگر می‌خواهید بدانید «سلاح کشتار ریاضی» یعنی چه، این سناریو را تصور کنید: یک روز صبح، شما را به اتهام قتل دستگیر می‌کنند. سوار ماشین پلیس می‌شوید، و وقتی بعد از ۱۰دقیقه به دادگاه می‌رسید، حکمِ نهایی‌ را به دستتان می‌دهند. هوش مصنوعی در این ۱۰دقیقه، با استفاده از کلان‌داده‌ها سوابق کیفری شما‌، الگوهای روان‌شناختی‌تان‌، روابطتان با دیگران، جزئیات ماجرا و هر چیز دیگری را مرور کرده و شما را گناهکار تشخیص داده است. نه نقطۀ مبهمی وجود دارد، نه کسی حوصلۀ شنیدن حرف‌هایتان را دارد. چه حالی خواهید داشت؟

 

کوری دکترو، بوینگ بوینگ — سال‌هاست که دربارۀ کارهای کتی اونیل، [ملقب به] «مث‌بِیب»۱، می‌نویسم. او دانشمند علوم داده‌ است و دکترایش را از هاروارد گرفته، و اصطلاح سلاح‌های کشتار ریاضی را وضع کرده تا نشان دهد مدل‌سازی‌های بی‌قید آماری، هرروزه، دمار از روزگار میلیون‌ها نفر درمی‌آورند، و زندگی‌های بیشتر و بیشتری را به نابودی می‌کشانند. اونیل حالا کتابی منتشر کرده و عنوانی خارق‌العاده، بی‌پرده و مبارزه‌طلبانه (دیگر چه می‌خواهید؟) برآن نهاده: سلاح‌های کشتار ریاضی۲.

 

•••

 

بحث‌ها دربارۀ نقش مه‌داده۳ در جامعۀ ما بیشتر متمایل است تا بر روی الگوریتم‌ها تمرکز کند، بااین حال، الگوریتم‌ها به خوبی کار می‌کنند و تأثیرشان بر مدیریت مجموعه‌های عظیم داده مشخص شده است. مسئله اصلی الگوریتم‌ها نیستند، بلکه مدل‌ها هستند. وقتی به یک الگوریتم داده می‌دهید و از آن می‌خواهید براساس داده‌ها برایتان پیش‌بینی انجام دهد، به شما یک مدل تحویل می‌دهد. آن‌طور که اونیل می‌گوید، «مدل‌ها درست مانند نظرات کارشناسی هستند که در تاروپود ریاضیات تنیده شده‌اند».

 

دیگر دانشمندان داده منتقد، مانند پاتریک بال از «گروه تحلیل داده حقوق بشر» نیز انتقادشان را از همین زوایه وارد کرده‌اند. پاتریک یک‌بار برای من توضیح داد که می‌توانید یک الگوریتم را به نحوی آموزش دهید که قد افراد را براساس وزنشان پیش‌بینی کند، اما اگر همۀ داده‌هایی که برای آموزش الگوریتم استفاده می‌کنید مربوط به کلاس سومی‌ها باشد، و آن‌هایی را هم که وزن‌ خودشان را می‌دانند، مستثنی کنید، آنوقت مدل شما پیش‌بینی می‌کند که قد بیشتر افراد تقریباً صد و بیست سانتی‌متر است. مشکلْ الگوریتم نیست، بلکه از یک سو داده‌هایی است که برای آموزش آن به کار می‌روند، و از سوی دیگر، نبودِ سازوکاری برای اصلاح خطا در نتیجه‌گیری.

 

اونیل نیز، مانند بال، مشتاق است مدل‌سازیِ برآمده از داده، تبدیل به نیرویی خیر در جهان شود، و بازهم مانند بال، این مسئله ناامیدش می‌کند که می‌بیند کارهای بی‌قید آماری می‌توانند با نقاب عینی‌گرایی ریاضی، و به بهای از بین بردن زندگی میلیون‌ها نفر، سودی سرشار نصیب چند شرکت کنند.

 

اونیل این مدل‌های خطرناک را «سلاح‌های کشتار ریاضی» می‌نامد، اما، در عین حال، این‌طور نیست که همۀ مدل‌هایی که خطا دارند، در این دسته قرار بگیرند. برای آنکه یک مدل در زُمرۀ «سلاح‌های کشتار ریاضی» جای بگیرد، باید برای افرادی که تحت آن مدل قرار می‌گیرند، فهم‌ناپذیر باشد، به منافعشان آسیب برساند، و به شکلی تصاعدی رشد کند تا به مقیاسی بسیار بزرگ برسد.

 

 

 

امروزه این مدل‌ها را همه‌جا می‌توان یافت. نظام آموزشیِ رسوا و سودمحور ما متوجه شده است که چگونه از مدل‌ها برای شناسایی آدم‌های مأیوس استفاده کرده و آن‌ها را فریب دهد تا پایشان را به «دوره‌های» آموزشی‌ گران‌قیمتی باز کند که می‌باید شهریه‌اش را با وام‌های دانشجویی سرسام‌آوری پرداخت کنند که تحت حمایت دولت فدرال است. به این دلیل است که دانشگاه فونیکس، حتی باوجود بیش از ۱ میلیارد دلار هزینۀ تبلیغات در سال، باز هم می‌تواند اینچنین سودآور باشد. علیرغم این واقعیت که هزینه بازاریابی آن‌ها ۲.۲۲۵ دلار به ازای هر دانشجو است، و تنها ۸۹۲ دلار به ازای هر دانشجو، خرج آموزش می‌کنند، اما سلاح کشتار ریاضی‌ای ساخته‌اند که دانشجویان را به تعداد زیاد و با سرعت بالا برایشان شکار می‌کند. درهمین حال، دانشگاه‌های کوچکی که هزینۀ کمتر و کارایی بیشتری دارند، در لابه‌لای جار و جنجال‌های تبلیغاتی دانشگاه فونیکس عملاً گم می‌شوند.

 

یکی از آشکارترین ویژگی‌های سلاح‌های کشتار ریاضی، فقدان بازخورد و تنظیم است. در ورزش، تیم‌ها از مدل‌های جزئی‌نگر آماری برای پیش‌بینی این موضوع استفاده می‌کنند که کدام ورزشکار را باید خریداری کنند و هنگام آمادگی برای مسابقه، چگونه آن‌ها را به کار گیرند. اما پس از آنکه مسابقه برگزار شد، تیم‌ها مدل‌هایشان را روزآمد می‌کنند تا شکست‌هایشان را تبیین کنند. اگر دست رد به سینۀ بازیکن بسکتبالی بزنید و او به تیم رقیب شما بپیوندد و در آنجا افتخارآفرینی کند، مدلتان را روزآمد می‌کنید تا در فصل بعدی نقل و انتقالات عملکردی بهتر داشته باشید.

 

همین را مقایسه کنید با استفاده هرروزه از سلاح‌های کشتار ریاضی علیه ما. بزرگترین کارفرمایان در امریکا از سرویس‌های تجاری برای سنجش رزومه‌های دریافتی‌شان با مدل کارمند «موفق» استفاده می‌کنند. آیندۀ شغلی شما در دستان این مدل‌هاست. اگر یکی شما را رد کند، و بعد به جای دیگری بروید و در آنجا عملکردی عالی داشته باشید، باز هم این واقعیت هیچگاه برای اصلاح مدل به کار نمی‌رود. همه بازنده‌اند؛ کارجویان به اجبار از بازارکار کنار گذاشته می‌شوند، و کارفرمایان هم نیروهای عالی را از دست می‌دهند. در این میان، تنها تاجران سلاح‌های کشتار ریاضی هستند که، همچون راهزن‌ها، به نان و آب می‌رسند.

 

ارزشش را دارد که بپرسیم چگونه به این‌جا رسیدیم. بسیاری از سلاح‌های کشتار ریاضی به‌منزلۀ پاسخی برای خطاهای ساختاری به کار گرفته شدند؛ برای مثال در صدور رأی قضایی، درجه‌بندی مدارس، پذیرش دانشگاه‌ها، استخدام، و ارائۀ تسهیلات. قرار بود مدل‌ها عاری از سوگیری‌های جنسی و نژادی باشند، و امتیازات و ارتباطات افراد نیز در عملکرد آن‌ها تأثیری نداشته باشد.

 

اما متأسفانه، در اغلب موارد، مدل‌ها با داده‌هایی طراحی می‌شوند که سوگیری دارند. تصویر دانشجویان موفق آینده در دانشگاه‌های برتر، یا وام‌گیرنده‌ای که اقساط‌اش را به موقع پرداخت می‌کند، بر اساس داده‌هایی ترسیم می‌گردد که برآمده از سابقۀ پر از سوگیری مؤسسه هستند. اطلاعات تمام فارغ‌التحصیلان هاروارد، یا همۀ وام‌گیرندگان وظیفه‌شناس، به الگوریتمی داده می‌شود که چشم بسته پیش‌بینی می‌کند دانشجویان فردای هاروارد یا وام‌گیرندگانی که اولویت دارند، درست شبیه به دیروزی‌ها باشند؛ فرقش این است که حالا دیگر سوگیری‌ها از مزیت عینی‌بودن هم برخوردارند.

 

این مشکل به خوبی در آمار شناخته شده است، اما دلالان سلاح‌های کشتار ریاضی نادیده‌اش می‌گیرند. درمقابل، شرکت‌هایی که خودشان برنامه‌های مه‌داده‌شان را طراحی و اجرا می‌کنند، بیشتر مراقب اصلاح مدل‌هایشان هستند. شرکت آمازون با دقت، مشتریانی را رصد می‌کند که دیگر از کارتهای خرید این شرکت استفاده نمی‌کنند، یا بعد از یکی دو خرید، قید خرید را می‌زنند. آن‌ها علاقه‌مندند همه‌چیز را دربارۀ «ارتکاب مجدد»۴ خریدارانشان بدانند، و به همین دلیل مدل‌سازی‌های آماری را با انسان‌شناسی -برای فهمیدن و صحبت‌کردن با خریداران- تلفیق می‌کنند تا سیستم خودشان را بهتر کنند.

 

تفاوت این سیستم با نرم‌افزاهای خودکار صدور رأی -که اکنون به شکلی گسترده در نظام قضایی ایالت متحده به کار می‌روند و دارند به سرعت در همه جای دنیا فراگیر می‌شوند- دیگر از این آشکاتر نمی‌تواند باشد. شرکت‌هایی که اپلیکیشن‌های صدور رأی را می‌فروشند نیز، مانند دانشمندان علوم دادۀ آمازون، می‌کوشند وقوع مجدد جرم را پیش‌بینی کنند، و پیش‌بینی‌هایشان ممکن است یک فرد را دهه‌ها به زندان بفرستد و فردی دیگر را آزاد کند.

 

 

 

اما این دلال‌ها مدل‌هایشان را براساس داده‌های معیوب گذشته طراحی می‌کنند. رأی‌های نژاد‌پرستانۀ گذشته را می‌نگرند؛ یعنی رأی‌هایی که مردان جوان سیاهپوست را به جرم همراه‌داشتن اندکی کراک به زندان می‌فرستادند، درحالی‌که کاری به کار مردان سفیدپوست پولداری که کوکایین حمل می‌کردند نداشتند، و «پیش‌بینی» می‌کنند اهالی مناطق فقیرنشین، که از قضا سروکار دوستان و اعضای خانواده‌شان هم به پلیس افتاده بوده، دوباره قانون‌شکنی خواهند کرد. بدین‌ترتیب برایشان احکامی طولانی مدت توصیه می‌کنند تا از جامعه دور نگه‌شان دارند.

 

این شرکت‌ها، برخلاف آمازون، به دنبال این نیستند که بدانند آیا محکومیت طولانی‌تر (با ایجاد آسیب روحی و انزوای اجتماعی) از دلایل ارتکاب مجدد جرم است یا خیر. وانگهی، تمایلی ندارند بدانند آیا کتک‌خوردن، حبس انفرادی و تجاوز در زندان ارتباطی با ارتکاب مجدد جرم دارند یا نه. اگر زندان همانند شرکت آمازون اداره می‌شد؛ یعنی با تعهد به کاهش ارتکاب مجدد جرم، به جای تعهد به عدالت (که مورد علاقه پیمانکاران سیستم قضایی و متعصبان تشنۀ انتقام در حوزه‌های انتخاباتی است) احتمالاً شبیه به سبک زندان‌داری نروژی می‌شد؛ یعنی زندانی انسانی، کم‌جمعیت، با هدف بازپروری، درمان اعتیاد، آموزش شغلی، و مشاورۀ روان‌شناختی.

 

سلاح‌های کشتار ریاضی، آموزش را، هم برای معلمان و هم دانش‌آموزان، تغییر دادند. در دهۀ ۱۹۸۰، دولت ریگان گزارشی به نام «کشوری در خطر» را دستاویز قرار داد که ادعا می‌کرد ایالات متحده، به دلیل افت نمرات آزمون اس‌اِی‌تی۵، در آستانه فروپاشی است. این گزارش، آغاز حمله‌ای همه‌جانبه به معلمان و آموزش عمومی بود که تا امروز نیز ادامه دارد.

 

بارزترین تجلی این موضوع، ارزیابی «ارزش افزودۀ» معلمان است که با استفاده از مجموعه‌ای از آزمون‌های استاندارد، عملکرد معلمان را سال به سال اندازه‌گیری می‌کند. خطاهای آماری این ارزیابی‌ها خنده‌دار است (آمار روی اعداد بزرگ جواب می‌دهد، نه کلاسی با ۲۵ کودک؛ ارزیابی‌ها ممکن است از یک سال تا سال دیگر ۹۰ درصد تغییر کنند، و تفاوت چندانی با داده‌سازی ندارد). معلمان؛ معلمان خوب و متعهد، با این آزمون‌ها شغلشان را از دست می‌دهند.

 

درهمین‌حال دانش‌آموزان هم، برای آنکه بتوانند بیشتر و بیشتر تست بزنند، از یادگیری واقعی دور می‌شوند، و همین تست‌ها که قرار بود استعدادهای آن‌ها را بسنجد -و بنابراین نمی‌بایست تابع دوره‌های گرانقیمت آمادگی برای آزمون می‌بودند- تمام آینده‌شان را تعیین می‌کند.

 

به هرحال مشخص شد گزارش «کشوری در خطر» نیز که آغازگر این ماجرا بود، از بیخ و بن چرند است و خطاهای آماری خنده‌داری دارد. مرکز تحقیقات سندیا بعدها یافته‌های گزارش را ممیزی کرد و متوجه شد پژوهشگران نتوانستند توضیحی برای تعداد فزایندۀ «دانش‌آموزانی پیدا کنند که آزمون اس‌ای‌تی می‌دادند» و بدین ترتیب باعث پایین آمدن نمرۀ میانگین می‌شدند.

 

به بیان دیگر، نتایج اس‌ای‌تی به این دلیل افت می‌کرد که «بچه‌های امریکایی بیشتری اعتماد به نفسِ رفتن به دانشگاه را داشتند»: نظام آموزشی «آنقدر خوب» کار می‌کرد که افراد جوانی که هیچ‌وقت فکر شرکت در اس‌ای‌تی را هم نمی‌کردند، در آن ثبت‌نام کردند و تعداد زیاد آزمون‌دهندگان داشت نمرۀ میانگین را کاهش می‌داد.

 

سلاح‌های کشتار ریاضی، سراسرِ زندگی انسان را تبدیل به بازی‌ای برای بهبود موتورهای جستجو می‌کنند. سوداگران، در این زمانۀ «سئو»، شرکت‌هایی را به استخدام درمی‌آورند که ادعا می‌کنند الگوهای پیچیدۀ گوگل را مهندسی معکوس کرده‌اند و ترفندهایشان می‌تواند رتبۀ سایت شما را بهتر کند.

 

زمانی که هزاران دلار پول می‌دهید تا یک نفر فرزندتان را برای آزمون اس‌ای‌تی آماده کند، یا رتبۀ سایتتان را با کمک خدمات‌دهنده‌های «امتیاز الکترونیکی»۶ بالا ببرد تا شایستگی شما را برای تخصیص اعتبار، یافتن‌ کار یا گرفتن وام تعیین کنند، درواقع دارید سئو را در تمام ابعاد زندگی خودتان بازآفرینی می‌کنید. تصویر تیره و تار آینده چنین است: تولیدکنندگان سلاح‌های کشتار ریاضی و کارشناسان سئو به مسابقۀ تسلیحاتی بی‌پایانی افتاده‌اند تا مدل‌هایشان را بهتر کنند و به مصاف یکدیگر بروند، و بقیۀ ما دستخوش بوالهوسی‌های الگوریتم‌های خودکار، یا باج‌دادن برای فرار (موقت) از آن‌هاییم. در آینده، ما دیگر مصرف‌کننده نیستیم، بلکه خودمان محصولیم (شهروند که هیچ).

 

کار اونیل مهم است چراکه او به علوم داده ایمان دارد. الگوریتم‌ها را می‌توان برای یافتن افرادی به کار بست که با مشکلات دست و پنجه نرم می‌کنند؛ معلمانی با چالش‌هایی دشوار، افرادی در تنگنای مالی، آن‌هایی که در شغلشان تقلا می‌کنند و دانش‌آموزانی که به توجه آموزشی نیاز دارند. این دیگر به ما بستگی دارد که چنین اطلاعاتی را درجهت نادیده‌گرفتن و بیشتر قربانی‌کردنشان به کار بندیم، یا به آن‌ها از طریق تخصیص منابع بیشتر کمک کنیم.

 

 

 

واحد‌های اعتبارسنجی، امتیازات الکترونیک، و دیگر موجودیت‌هایی که ما را در قالب مدل‌ها جا می‌دهند، با نوعی اثبات‌گرایی دروغین، آسیب‌هایی جبران‌ناپذیر بر ما وارد می‌کنند؛ از لیست‌های پرواز ممنوع۷ گرفته، تا خطاهای اعتبارسنجی و خطاهای ارزیابی شغلی که به بهای ازدست‌دادنِ کارمان تمام می‌شود. این خطاها برای آن‌ها هزینۀ‌ چندانی ندارد، اما برای ما بسیار گران تمام می‌شوند. هزینه زدودن چنین چیزهایی (پاک‌سازی سوابق منفی کاری، یافتن منزلی نو، سپری‌کردن دوران طولانی‌تر محکومیت و از این دست) مانند هزینۀ تبعات منفی۸، بسیار بالا است، اما ما این هزینه‌ها را می‌پذیریم و آن‌ها هم پس‌اندازمان را درو می‌کنند.

 

اگر شعار ای پلوریبوس یونُم۹ را واژگون کنیم، چنین می‌شود: مدل‌ها، بسیاری را از میان یکی بیرون می‌کشند، هرکداممان را به‌عنوان عضوی از یک گروه طبقه‌بندی می‌کنند. گروه‌هایی که می‌توان به کمک آن‌ها تعمیم‌دهی انجام داد؛ تعمیم‌هایی که اغلب نیز تنبیهی و کمرشکن هستند (مانند قیمت‌گذاری متغیر۱۰).

 

مدل‌سازی از میان نخواهد رفت؛ چراکه مدل‌ها، به عنوان ابزارهایی برای راهنمایی و مراقبت و همچنین به عنوان سیستم‌هایی مفید و چاره‌ساز، فوق‌العاده‌اند، اما اگر همچون ابزاری برای تنبیه و تضعیف به کار روند، تبدیل به کابوس می‌شوند. انتخابش با ماست. کتاب اونیل مانند یک دوره به زبانِ ساده است که پیرامون دانش آماری تخصصی نوشته شده است؛ دانشی که همۀ ما برای پرسشگری از سیستم‌هایی که دورتادورمان را گرفته‌اند، و همچنین برای مطالبه‌گری از آن‌ها، بدان نیاز داریم.