https://ninkilim.com/articles/arguing_with_an_ai_sceptic/fa.html
Home | Articles | Postings | Weather | Top | Trending | Status
Login
Arabic: HTML, MD, MP3, PDF, TXT, Czech: HTML, MD, MP3, PDF, TXT, Danish: HTML, MD, MP3, PDF, TXT, German: HTML, MD, MP3, PDF, TXT, English: HTML, MD, MP3, PDF, TXT, Spanish: HTML, MD, MP3, PDF, TXT, Persian: HTML, MD, PDF, TXT, Finnish: HTML, MD, MP3, PDF, TXT, French: HTML, MD, MP3, PDF, TXT, Hebrew: HTML, MD, PDF, TXT, Hindi: HTML, MD, MP3, PDF, TXT, Indonesian: HTML, MD, PDF, TXT, Icelandic: HTML, MD, MP3, PDF, TXT, Italian: HTML, MD, MP3, PDF, TXT, Japanese: HTML, MD, MP3, PDF, TXT, Dutch: HTML, MD, MP3, PDF, TXT, Polish: HTML, MD, MP3, PDF, TXT, Portuguese: HTML, MD, MP3, PDF, TXT, Russian: HTML, MD, MP3, PDF, TXT, Swedish: HTML, MD, MP3, PDF, TXT, Thai: HTML, MD, PDF, TXT, Turkish: HTML, MD, MP3, PDF, TXT, Urdu: HTML, MD, PDF, TXT, Chinese: HTML, MD, MP3, PDF, TXT,

درس‌هایی آموخته‌شده از تلاش برای بحث با یک شکاک به هوش مصنوعی

این ماجرا با یک میم سیاسی که پست کردم آغاز شد: دونالد ترامپ و بنیامین نتانیاهو با لباس‌های نارنجی زندان، نشسته روی تخت دوطبقه زیر یک لایه کریسمسی گرم و نوستالژیک با نوشته «All I Want for Christmas». طنز بصری فوری و تیز بود. ساخت آن نیاز به دور زدن‌های عمدی داشت. مدل‌های تولید تصویر معاصر هم محدودیت‌های سیاست‌گذاری و هم محدودیت‌های فنی انسجام دارند:

هیچ مدل واحدی نمی‌توانست تصویر کامل را تولید کند. عناصر متضاد — طنز سیاسی پربار همراه با پیام عاطفی تعطیلات — مکانیسم‌های رد یا شکست انسجام را فعال می‌کند. مدل‌های زبان بزرگ به سادگی ناتوان از ترکیب چنین اجزای مفهومی متضادی در یک خروجی منسجم هستند. من دو عنصر را جداگانه تولید کردم، سپس به صورت دستی در GIMP ادغام و ویرایش کردم. ترکیب نهایی بدون تردید انسانی بود: مفهوم من، انتخاب اجزای من، مونتاژ و تنظیمات من. بدون این ابزارها، طنز در ذهنم محبوس می‌ماند یا به شکل شکلک‌های خام درمی‌آمد — فاقد هرگونه تأثیر بصری.

کسی تصویر را به عنوان «تولیدشده توسط هوش مصنوعی» گزارش کرد. روز بعد، سرور قانون جدیدی معرفی کرد که محتوای هوش مصنوعی مولد را ممنوع می‌کند. این قانون — و میمی که آن را تحریک کرد — مستقیماً الهام‌بخش من برای نوشتن و انتشار مقاله «ذهن‌های چندبعدی و بار سریال‌سازی: چرا مدل‌های زبان بزرگ برای ارتباط نورودایورجنت مهم هستند» شد. امیدوار بودم تأمل در مورد چگونگی خدمت این ابزارها به عنوان اقامتگاه‌های شناختی و خلاقانه را تشویق کند. اما به یک تبادل نسبتاً ناخوشایند با ادمین تبدیل شد.

موقعیت شکاک و تبادل

ادمین استدلال کرد که مدل‌های زبان بزرگ نه برای منافع انسانی توسعه یافته‌اند بلکه هدررفت منابع و نظامی‌سازی را پرورش می‌دهند. او به مصرف انرژی، پیوندهای نظامی، فروپاشی مدل، توهمات، و خطر «اینترنت مرده» اشاره کرد. او فاش کرد که فقط مقاله را مرور کرده و اعتراف کرد که یک ایستگاه کاری بازی قدرتمند دارد که می‌تواند مدل‌های زبان بزرگ محلی پیشرفته را برای سرگرمی خصوصی اجرا کند، با دسترسی به مدل‌های بزرگ‌تر از طریق دوست.

چند تناقض ظاهر شد:

به طور چشمگیر، شخصی که ممنوعیت را برای حفاظت از اصالت اعمال می‌کند، کسی را که فعالانه مدل‌های زبان بزرگ را برای بایاس واقعی و ژئوپلیتیک تست استرس می‌کند (به ممیزی‌های عمومی من از گروک و چت‌جی‌پی‌تی مراجعه کنید) رد می‌کند.

قیاس هاوکینگ و کلمات خود ادمین

ادمین خودش را نورودایورجنت شناسایی کرد و پتانسیل هوش مصنوعی را به عنوان فناوری کمکی 인정 کرد. او عینک‌های زیرنویس واقعی‌زمان برای افراد کم‌بینا را «واقعاً باحال» ستود، اما اصرار داشت که «داشتن ماشینی که مقاله بنویسد و تصویر بکشد متفاوت است». او افزود: «افراد نورودایورجنت می‌توانند این کارها را انجام دهند، بسیاری موانع را غلبه کرده‌اند تا این مهارت‌ها را توسعه دهند». او همچنین تجربه خودش با مدل‌های زبان بزرگ را توصیف کرد: «هرچه بیشتر در مورد موضوعی بدانم، کمتر به هوش مصنوعی نیاز دارم. هرچه کمتر بدانم، کمتر مجهز هستم تا توهمات را متوجه شوم و اصلاح کنم». این اظهارات عدم تقارن عمیقی در قضاوت اقامتگاه‌ها نشان می‌دهد.

تصور کنید همان منطق را به استیون هاوکینگ اعمال کنید:

«ما 인정 می‌کنیم که سنتزکننده صدا می‌تواند به شما کمک کند سریع‌تر ارتباط برقرار کنید، اما ترجیح می‌دهیم بیشتر با صدای طبیعی‌تان تلاش کنید. بسیاری از افراد مبتلا به بیماری نورون حرکتی موانع را غلبه کرده‌اند تا واضح صحبت کنند — شما هم باید آن مهارت‌ها را توسعه دهید. ماشین چیزی متفاوت از گفتار واقعی انجام می‌دهد».

یا، از دیدگاه خودش در مورد دقت واقعی:

«هرچه هاوکینگ بیشتر در مورد کیهان‌شناسی بداند، کمتر به سنتزکننده نیاز دارد. هرچه کمتر بداند، کمتر مجهز است تا خطاهای صدای ماشین را متوجه شود و اصلاح کند».

هیچ‌کس این را نمی‌پذیرد. ما درک کردیم که سنتزکننده هاوکینگ نه عصا یا رقیق‌سازی — بلکه پل ضروری بود که اجازه می‌داد ذهن فوق‌العاده‌اش عمق کاملش را بدون موانع فیزیکی غیرقابل غلبه به اشتراک بگذارد.

راحتی ادمین با نثر خطی، انسانی‌شده نشان‌دهنده سبک شناختی است که بیشتر با انتظارات نوروتیپیکال همخوانی دارد. پروفایل من معکوس است: عمق واقعی و منطقی به طور طبیعی می‌آید (مانند توسعه یک پلتفرم انتشار چندزبانه کاملاً توسط خودم)، اما تولید نثر ساختارمند، قابل دسترس برای مخاطبان انسانی همیشه مانع بوده — دقیقاً آنچه مقاله توصیف می‌کند. پذیرش عینک‌های زیرنویس یا متن جایگزین به عنوان اقامتگاه‌های مشروع در حالی که رد ساختاردهی مدل زبان بزرگ برای واگرایی شناختی، مرز دلخواه کشیدن است. ماستودون و فدی‌ورس گسترده‌تر اغلب به فراگیری افتخار می‌کنند. با این حال این دروازه‌های جدیدی معرفی می‌کند: برخی اقامتگاه‌ها استقبال می‌شوند؛ دیگران باید از طریق تلاش فردی غلبه شوند.

پژواک‌های تاریخی: مقاومت در برابر ابزارهای تحول‌آفرین

رد کلی استفاده عمومی از هوش مصنوعی مولد پژواک الگویی تکراری در سراسر تاریخ فناوری است. در انگلیس اوایل قرن نوزدهم، بافندگان ماهر شناخته‌شده به عنوان لودایت‌ها ماشین‌های بافندگی مکانیزه را که حرفه و معیشت‌شان را تهدید می‌کرد شکستند. روشن‌کنندگان چراغ گاز در شهرها با لامپ رشته‌ای ادیسون مخالفت کردند، از ترس منسوخ شدن. کالسکه‌رانان، اصطبل‌داران، و پرورش‌دهندگان اسب اتومبیل را به عنوان تهدید وجودی برای شیوه زندگی‌شان مقاومت کردند. کاتبان و نقشه‌کشان حرفه‌ای فتوکپی را با نگرانی دیدند، معتقد بودند که کار دستی دقیق را بی‌ارزش می‌کند. حروف‌چینان و چاپگران با سیستم‌های ترکیب کامپیوتری مبارزه کردند.

در هر مورد، مقاومت از ترس واقعی ناشی می‌شد: فناوری جدید مهارت‌هایی که به آنها افتخار می‌کردند را منسوخ کرد، نقش اقتصادی و هویت اجتماعی‌شان را به چالش کشید. تغییرات احساس بی‌ارزش‌سازی کار انسانی می‌کرد.

با این حال تاریخ این نوآوری‌ها را بر اساس تأثیر گسترده‌تر ارزیابی می‌کند: مکانیزاسیون کارهای طاقت‌فرسا را کاهش داد و تولید انبوه را ممکن کرد؛ روشنایی الکتریکی ساعات تولیدی را طولانی کرد و ایمنی را بهبود بخشید؛ اتومبیل‌ها تحرک شخصی اعطا کردند؛ فتوکپی‌ها دسترسی به اطلاعات را دموکراتیزه کردند؛ حروف‌چینی دیجیتال انتشار را سریع‌تر و قابل دسترس‌تر کرد. امروز تعداد کمی به چراغ‌های گاز یا حمل‌ونقل اسبی برمی‌گردند فقط برای حفظ مشاغل سنتی. ابزارها قابلیت و مشارکت انسانی را بسیار بیشتر از کاهش آن گسترش دادند.

هوش مصنوعی مولد - استفاده‌شده به عنوان پروتز برای شناخت یا خلاقیت - همان مسیر را دنبال می‌کند: قصد انسانی را ریشه‌کن نمی‌کند بلکه بیان را به کسانی که ایده‌هایشان توسط موانع اجرایی محدود شده گسترش می‌دهد. رد کامل آن خطر تکرار انگیزه لودایتی را دارد — دفاع از فرآیندهای آشنا به هزینه مشارکت گسترده‌تر.

نتیجه‌گیری: چه کسی تصمیم می‌گیرد کدام اقامتگاه‌ها قابل قبول هستند؟

رویدادهای روایت‌شده در این مقاله - یک تصویر گزارش‌شده، یک ممنوعیت عجولانه، یک بحث طولانی— بیشتر از یک اختلاف محلی در مورد فناوری آشکار می‌کنند. آنها سؤال عمیق‌تر و اساسی‌تری را افشا می‌کنند: چه کسی تصمیم می‌گیرد کدام اقامتگاه‌ها قابل قبول هستند، و کدام نه؟ آیا باید افرادی باشند که در پوست و مغز نیاز به اقامتگاه زندگی می‌کنند - کسانی که از تجربه روزانه می‌دانند چه چیزی شکاف بین قابلیت‌هایشان و مشارکت کامل را پر می‌کند؟ یا باید افراد خارجی باشند، هرچند نیک‌نیت، که آن واقعیت زیسته را به اشتراک نمی‌گذارند و بنابراین نمی‌توانند وزن مانع را احساس کنند؟

تاریخ بارها به این سؤال پاسخ می‌دهد، و تقریباً همیشه در همان جهت. ویلچرها زمانی به عنوان تشویق وابستگی انتقاد می‌شدند؛ سیستم‌های آموزش ناشنوایان طولانی اصرار داشتند کودکان لب‌خوانی و گفتار دهانی یاد بگیرند به جای زبان اشاره. در هر مورد، افراد نزدیک‌ترین به نقص در نهایت پیروز شدند - نه چون نگرانی‌های هزینه، دسترسی، یا سوءاستفاده احتمالی را انکار کردند، بلکه چون مقامات اصلی بودند در مورد آنچه واقعاً استقلال و کرامت‌شان را بازگرداند.

با مدل‌های زبان بزرگ و دیگر ابزارهای مولد، ما دوباره همان چرخه را زندگی می‌کنیم. بسیاری که استفاده‌شان را کنترل می‌کنند تجربه موانع شناختی یا بیان خاص را ندارند که ساختاردهی خطی، جریان روایی، یا سریال‌سازی سریع را مانند وظیفه ترجمه خسته‌کننده زبان خارجی احساس کنند. از بیرون، «فقط بیشتر تلاش کن» یا «مهارت را توسعه ده» می‌تواند معقول به نظر برسد. از داخل، ابزار میان‌بر دور از تلاش نیست؛ رمپ، سمعک، پروتز است که بالاخره تلاش موجود را به جهان می‌رساند.

عمیق‌ترین طنز وقتی ظاهر می‌شود که داوران خودشان نورودایورجنت شناسایی می‌کنند، اما نورولوژی خاص‌شان در حوزه قضاوت‌شده بیشتر با انتظارات نوروتیپیکال همخوانی دارد. «من اینطور غلبه کردم، پس دیگران هم باید» قابل درک است، اما همچنان کنترل دروازه عمل می‌کند - تکرار همان هنجارهایی که وقتی از مقامات نوروتیپیکال می‌آید انتقاد می‌کنیم. اصل اخلاقی پایدار لازم است:

یک استاندارد دوگانه آشکار خاص در تقاضای گسترده برای افشای صریح استفاده از هوش مصنوعی مولد ظاهر می‌شود. ما چنین افشایی برای اکثر اقامتگاه‌های دیگر 요구 نمی‌کنیم. برعکس، پیشرفت‌های فناوری را جشن می‌گیریم که آنها را نامرئی می‌کنند: عینک‌های ضخیم جایگزین‌شده با لنز تماسی یا جراحی انکساری؛ سمعک‌های حجیم مینیاتوری‌شده به تقریباً نامرئی؛ دارو برای تمرکز، خلق، یا درد خصوصی مصرف‌شده بدون پاورقی یا اعلام مسئولیت. در این موارد، جامعه استفاده محتاطانه و پنهان را پیشرفت می‌بیند - بازگردانی کرامت و normality. اما وقتی اقامتگاه شناخت یا بیان را گسترش می‌دهد، سناریو برمی‌گردد: حالا باید علامت‌گذاری‌شده، اعلام‌شده، توجیه‌شده باشد. نامرئی شدن مشکوک می‌شود نه مطلوب. این تقاضای انتخابی برای شفافیت واقعاً در مورد جلوگیری از فریب نیست؛ در مورد حفظ راحتی با تصویر خاصی از نویسندگی انسانی بدون کمک است. اصلاحات فیزیکی اجازه دارند ناپدید شوند؛ اصلاحات ذهن باید به طور برجسته علامت‌گذاری شوند.

اگر بخواهیم پایدار باشیم، باید یا افشا برای هر اقامتگاهی تقاضا کنیم (نیاز پوچ و تجاوزگرانه) یا دیگر ابزارهای شناختی را برای بررسی ویژه تک‌نشین نکنیم. موقعیت اصولی - که به استقلال و کرامت احترام می‌گذارد - اجازه دادن به هر فرد برای تصمیم‌گیری در مورد چقدر visible یا invisible اقامتگاهش باشد، بدون قوانین تنبیهی که یک فرم کمک را هدف قرار می‌دهند چون مفاهیم موجود خلاقیت و intellect را برهم می‌زند. این مقاله نه تنها دفاع از یک ابزار خاص است. دفاع از حق گسترده‌تر افراد معلول و نورودایورجنت برای تعریف نیازهای دسترسی خودشان است، بدون نیاز به توجیه به کسانی که هرگز در کفش‌هایشان راه نرفته‌اند. آن حق نباید جنجالی باشد. با این حال، همانطور که روایت پیشین نشان می‌دهد، هنوز هست.

Impressions: 34