top of page
Writer's pictureMehdi Farhangian

هوش مصنوعی و زنجیرهای نامرئی

Updated: Jul 18, 2024




هیچ ابزار و تکنولوژی‌ای نبوده است که به اندازه هوش مصنوعی تقدیس شده باشد. گویا خدای جدیدی به دست بشر آفریده شده. بشری که شاید با خود فکر می‌کند اگر خدایان پیشین نتوانسته‌اند گره ای از مشکلاتم باز کنند، چرا این یکی را امتحان نکنم. صداهایی ما را از عواقب و جبرانیت این خداگونه جدید می‌ترسانند. می‌ترسانند که هوش مصنوعی به زودی بر ما فائق خواهد شد. دقیق‌ترکه می‌شویم، می‌بینیم بلندترینِ صداها، همان هایی هستند که بیشترین سود را می‌برند. ایلان ماسک در حالی که برای توقف تحقیق در مورد هوش مصنوعی نامه می‌نویسد، روی پروژه گروک کارمی‌کند. اینجاست که باید شاخک‌هایمان تیزتر شود. باید به این بزرگنمایی‌ها شک کنیم. اما این به معنی بی‌اهمیت بودن و بی خطر بودنشان نیست. بی‌درنگ شگفت‌زده می‌شویم وقتی می‌بینیم Chat GPT با چه هنری نحوه پردازش داده و اطلاعات را توسط انسان یاد میگیرد و به دقت تقلید می‌کند. می‌دانیم که حجم داده‌ای که در اختیار بشر است، قابل مقایسه با گذشته نیست. می‌دانیم گوگل سه دهه است که داده جمع کرده. میدانیم از نظر سخت افزاری پیشرفت های چشمگیری داشته ایم و GPU and CPU های جدید قابلیت پردازش این حجم از داده را دارند. 


هوش مصنوعی بی‌شک خطرناک است، ولی نه از زاویه‌ای که مبلغان و حامیان آن می‌گویند. آنهایی که با داستان‌های علمی و تخیلی ما را می‌فریبند، که هوش این موجود به زودی از ما جلو می‌زند و ما را به تسخیر خود می‌آورد. به کفایت شک می‌کنیم که آیا این اوهام صرفاً تبلیغ برای محصولات هوش مصنوعی است؟ آیا ناشی از خصوصیت انسان است که عادت به بزرگنمایی در مورد ناشناخته‌ها دارد؟ و آیا می‌خواهند ما به ترس و سوالات واقعی فکر نکنیم؟ این تبلیغات چه خواسته و یا  چه ناخواسته ما را از فکر کردن به عواقب واقعی منحرف میکنند. وظیفه ماست که زنجیره‌های نامريی و محدودیت‌های واقعی را ببینیم و بدانیم که چرا نباید توسعه آینده هوش مصنوعی را به دستان ایلان ماسک‌ها و پیتر تیل‌ها بسپاریم.


باور عمومی این است که ابزارها ارزشی جوهری و ذاتی ندارند.می گویند نحوه استفاده انسان، ارزش آنها را تعیین می‌کند. به عنوان مثال, این تفنگ نیست که شما را می کشد بلکه انسان تفنگ به دست, شما را میکشد. این نکته مغفول می ماند که غالبا در دل ابزارها ارزشی نهفته است. چه ضمیر ناخودآگاه ما متوجه این نکته بشود و چه نه.  گویی, پیش از آنکه نیازی واقعی وجود داشته باشد این ابزارها هستند که خالق نیاز ما هستند و ما را متقاعد میکنند  که خواسته ای در درون ما وجود داشته که از آن غافل بوده ایم.  


مضافا اینکه, تکنولوژی چها چوبی را به وجود می آورد که در نحوه چگونه دیدن و چگونه فکر کردن ما تاثیر گذار است .به عنوان مثال, طراحی شبکه های اجتماعی بیش از آنچه که ما تصور میکنیم در نحوه رفتارمان و درجه پرخاشگر و یا دوستانه بودنمان موثر است. مارتین هایدگر می‌گوید که ما تکنولوژی را تجربه نمی‌کنیم، بلکه جهان را از طریق تکنولوژی تجربه می‌کنیم. به نظر می‌آید که فکر ما بر روی عمل است و نه ابزار و تکنولوژی. به عنوان مثال، هنگام استفاده از کیبورد، شما به عملی که در حال انجام است فکر می‌کنید، نه به خود کیبورد. کیبورد تنها وقتی مریی می شود که یا خراب شود و یا وظیفه‌اش را به نحوی انجام ندهد.  حتی گاهی، ابزار به ادامه ای از خود ما تبدیل می‌شود، مانند عینکی که به چشم می‌زنیم.


ما در خصوص اثرات مفید تکنولوژی، چه در حالت بالقوه و چه در حالت واقعی، به کفایت آگاهی داریم.اما این نباید باعث شود که پرسش اصلی در سایه باقی بماند. سوال اساسی این است که آیا این ابزارها اراده ای معطوف به حل مشکلات ما دارند؟ آیا اگر می خواستند تا به حال نمی توانستند بخشی زیادی از این مشکلات را حل کنند؟  آیا بیشتر مشکلات ما, جهان و زیست بومی که در آن زندگی میکنیم -که به صورت تصاعدی در حال نابودی است- به خاطر نقض در تکنولوژی است آیا مسئله اساسا اقتصادی و سیاسی است؟ جواب آن را میدانیم. حتی اگه سرمایه داری و بازوان اصلی آن یعنی پروپاگاندا موم در گوشمان بریزند. 



 از آسمان به زمین بیاییم و به جای صحبت از Artificial General Intelligence) AGI ها از (Artificial Intelligence) AI صحبت کنیم .فکر کردن به  Skynet فریب بزرگی است. باید این تصور راز آلود را کنار زد.  وقتی صحبت از هوش مصنوعی میشود, باید به شرایط کاری و تغییرات آب و هوایی فکر کنیم. به این فکر کنیم که اقتصاد باید در خدمت بشر باشد و نه بشر در خدمت اقتصاد. به الگوریتم هایی که هر روز با آنها سروکار داریم.مثلا مدلی که آمازون به کمک هوش مصنوعی ساخت تا رزومه ها رو بررسی کند و کاندیداهای برتر را استخدام کند. مهندسان آمازون بعد از مدتی متوجه شدند, الگوریتمشان زن ها را استخدام نمی کند. علت احتمالا این بود که بر اساس داده های موجود شرکت آمازون, به صورت سنتی مردها موفق تر عمل میکردند.  در چنین مواردی ,مالکان محصولات هوش مصنوعی و فعالان در موسسات تحقیقاتی, بی درنگ راه حلی سرراست ارائه میدهند تا تنگنای اخلاقی را برطرف کنند.میگویند که برنامه های هوش مصنوعی از دو قسمت تشکیل شده اند. اول پیش بینی میکنند و سپس توصیه. برای حل مشکل قسمت اول باید داده های بیشتر و متنوع تری به سیستم داد و برای مشکل دوم میتوانیم به سیستم بگوییم که چه توصیه ای بکند که عادلانه و اخلاقی باشد. متخصصان یا نمی دانند یا خودشان را به نادانی زده اند که مشکل فراتر از این است. مشکل این است که معیارهای ثابتی برای عدل و اخلاق وجود ندارد. چه کسی تصمیم میگیرد که جواب هوش مصنوعی اخلاقی است یا نه؟ با معیار چه کسی؟ مضاف اینکه, مشکل را باید از منظر سرمایه داری دید. سرمایه داری به دنبال دقتی است که منجر به سود میشود و نه اخلاق و عدالت. به عنوان مثال ممکن است سیستم استخدامی آمازون فرضا پیش بینی کند که رنگین پوستان عملکرد پایین تری دارند - ممکن است دلیل واقعی این باشد که به صورت سیستمی در آمازون رنگین پوستان مورد تبعیض و آزار قرار گرفته اند و متعاقبآ عملکرد پایین تری داشته اند- برای رعایت اخلاق, ما هوش مصنوعی ای میسازیم و ازاومیخواهیم درصد بیشتری از رنگین پوستان را استخدام کند. اما آیا مشکل حل شده است؟. تا چه حد" دقت" قربانی شده است؟ آیا دلیل اولیه ای که اصلا هوش مصنوعی برای استخدام استفاده شده زیر سوال نمیرود؟ همواره این طور به نظر میرسد که باید بر سر "دقت" و جهانی ایده آلی که دوست داریم در آن زندگی کنیم سبک و سنگین کنیم. و مشکل از همینجا شروع میشود.  ما در مورد این که چه جهانی جهان ایده آل است یکسان فکر نمی کنیم.


جهان هوش مصنوعی روز به روز به جهان داستان های کافکا بیشتر شبیه میشود. اگر جایی تقاضای شغل بدهیم و توسط هوش مصنوعی رزومه ما رد شود دلیلش را نمی دانیم. نمیدانیم جهان ایده آل هوش مصنوعی چه بوده است. اگر توضیحی هم داده شود بیشتر شبیه به بروشورهای تبلیغاتی میماند.  در دستان محاکمه کافکا, جوزف کی دستگیر میشود , در طول جریان دادگاه و سیستم قضایی تلاش میکند که دلیل بازداشت را بفهمد و کسی دلیل دستگیری را به او نمیگوید تا اینکه در انتها اعدام میشود.


کارگران جنسی شاید اولین گروهی بودند که متوجه خطر شدند. هوش مصنوعی محتوای رایگان پورن روی اینترنت را به صورت تصاعدی زیاد کرد. گاهی این محتوا بدون بازیگر واقعی تولید میشود.  کارگران جنسی برای بقا در بازار, راه خلاقانه ای پیدا کردند و شروع کردند به دادن خدمات شخصی شده از طریق سایت Only Fans. آیا راه حل برای هنرمندان و دست انداران فرهنگ هم به همین سادگی است؟ هدف از هنر و فرهنگ چیست؟ آیا جز این است که هنرمند قطعه ای از روحش رو برای ما میگذارد و با این کار نامیرا میشود؟ آیا جز این است که بعد از گذشت این هم قرن هنوز هم میشود میکل آنژ را در کلیسای سیستین دید؟ هوش مصنوعی محتوایی که میوه تلاش و خلاقیت هزارن هنرمند است را غارت میکند و متنی بدون روح و بدون فرم تحویل ما میدهد. این محتوا  قرار است چه احساساتی در ما ایجاد کند؟ نسلهای بعدی چه درکی از هنرو خلاقیت خواهند داشت و در فقدان گزینه های شغلی, برای هنرمندان چه انگیزه ای برای تولید باقی میماند؟ 


 نظام سرمایه داری مالکیت اطلاعات و حق تصمیم گیری را متعلق به نزدیکترین ها به حلقه مرکزی ثروت و قدرت میداند. به زودی بیشتری مقدار داده در اختیار اقلیتی خواهد بود که مالکان چند شرکت بزرگ تک هستند.  برای همین دغدغه برای دمکراتیک کردن هوش مصنوعی نه از سر شکم سیری بلکه از سر دغدغه برای شآن انسانی است تا از این بیشتر از اطلاعات و تصمیم گیری محروم نشود. آزادی و حق انتخاب داشته باشد و قدرت تفکرش صلب نشود. نکته مهم و خطرناک این است که  قلمرو هوش مصنوعی قلمرو زبان است و زبان تولید میکند. ویتگنشتاین میگفت  مرزهای زبان ما, مرزهای جهان ماست. زبان می تواند واقعیت را سانسور کند.  جورج اورول گرفتن آزادی  به وسیله زبان را د رمان 1984  "نیوزپیک" نامگذاری کرد جایی که در سیستمی توتالیتر به صورت سیستماتیک زبان را دستکاری می کردند. هدف محدود کردن, کودن کردن و ادامه سلطه بر افراد بود. 


علاوه بر آزادی, نانمان هم در خطر است. رنجی فراتر از رنج بی شغلی برای بشر نیست و هوش مصنوعی برای سود بیشتر, انسان را تواناتر از ماشین نمیخواهد تا بتواند انسان ضعیف را با ماشین جایگزین کند. انسان را به اندازه ماشین ضعیف می خواهد تا قدرت چانه زنی فقط در انحصار کارفرما باقی بماند. شکی نیست, در آینده با رواج بیشتر هوش مصنوعی - اگر خوش شانس باشیم و کارمان را از دست ندهیم-  قدرت چانه زنی مان در مقابل کارفرما کمتر و کمتر خواهد شد.   


  

در این جستار کوتاه سعی کردم تیتروار خطرات واقعی هوش مصنوعی را یادآوری کنم. یادآوری کنم که اهمیت قدرت و حق تصمیم  برابر در توسعه هوش مصنوعی برای اخلاق, هنرو فرهنگ و محیط کار تا چه اندازه است. هوش مصنوعی البته میتواند به ما کمک کند و مشکلات واقعی "ما" را حل کند, اگر همه صدای برابر داشته باشیم و توسعه هوش مصنوعی را در دستان خودمان میگیریم. چه ما داده ای بر روی اینترنت داشته باشیم, چه کارگر شرکت های تک باشیم, چه کارگر معدن لیتیوم باشیم, چه در این هوا و زیست بومی -که در حال نابودی است و به نقطه غیر قابل برگشت رسیده است - تنفس میکنیم , حق داریم که بخواهیم در مورد هوش مصنوعی و چگونگی توسعه آن تصمیم بگیریم و سواری مجانی ندهیم. شایسته است که در جهانی دموکراتیک تر زندگی کنیم و بهروزی ما بر سود اقلیتی ارجح باشد.

3 views0 comments

Comments


bottom of page