بیایید صادق باشیم: بیشتر آنچه که ما امروزه هوش مصنوعی مینامیم، در واقع فقط تطبیق الگو به صورت خودکار است. تا زمانی که سطح آن را بررسی نکنید، چشمگیر به نظر میرسد. این سیستمها میتوانند مقاله تولید کنند، کد بنویسند و مکالمه را شبیهسازی کنند، اما در اصل، ابزارهای پیشبینی هستند که بر اساس محتوای قدیمی و از رده خارج آموزش دیدهاند. آنها زمینه، هدف یا پیامد را درک نمیکنند.پس جای تعجب نیست که در این رونق استفاده از هوش مصنوعی، هنوز شاهد خطاهای اساسی، مشکلات و نقصهای اساسی هستیم که باعث میشود بسیاری این سوال را مطرح کنند که آیا این فناوری واقعاً فایدهای فراتر از تازگی خود دارد یا خیر.
این مدلهای بزرگ زبانی (LLM) خراب نیستند؛ آنها فقط بر پایه اشتباهی ساخته شدهاند. اگر میخواهیم هوش مصنوعی کاری بیش از تکمیل خودکار افکار ما انجام دهد، باید دادههایی را که از آنها یاد میگیرد، دوباره بررسی کنیم.
توهم هوش
LLM های امروزی معمولاً بر اساس موضوعات Reddit، فایلهای ویکیپدیا و محتوای اینترنتی آموزش میبینند. مانند آموزش یک دانشآموز با کتابهای درسی قدیمی و پر از خطا است. این مدلها هوش را تقلید میکنند، اما نمیتوانند در سطح انسان استدلال کنند. آنها نمیتوانند مانند یک انسان در محیطهای پرفشار تصمیم بگیرند.
بازاریابیهای فریبنده پیرامون این رونق هوش مصنوعی را فراموش کنید؛ همه اینها برای این طراحی شدهاند که ارزشگذاریها را متورم نگه دارند و یک صفر دیگر به دور بعدی تأمین مالی اضافه کنند. ما قبلاً عواقب واقعی را دیدهایم، عواقبی که به آن توجه روابط عمومی پر زرق و برق نمیشود. رباتهای پزشکی در تشخیص علائم دچار توهم اند.مدلهای مالی در سوگیری غرق میشوند. خودروهای خودران علائم ایست را اشتباه میخوانند. اینها خطرات فرضی نیستند، بلکه شکستهای دنیای واقعی هستند که از دادههای آموزشی ضعیف و ناهماهنگ ناشی میشوند.
و مشکلات فراتر از خطاهای فنی هستند؛ آنها به قلب حقوق مالکیت ضربه میزنند. شرکتها از شرکتهای هوش مصنوعی به دلیل استفاده از کارشان بدون رضایت شکایت میکنند. این ادعاها به تریلیونها دلار میرسد و برخی آنها را دعاوی پایان کسب و کار برای شرکتهایی مانند Anthropic مینامند. این نبردهای حقوقی فقط مربوط به حق چاپ نیستند. آنها پوسیدگی ساختاری در نحوه ساخت هوش مصنوعی امروزی را آشکار میکنند. تکیه بر محتوای قدیمی، بدون مجوز یا جانبدارانه برای آموزش سیستمهای آیندهنگر، یک راه حل کوتاه مدت برای یک مشکل بلندمدت است. این کار ما را در مدلهای شکنندهای گرفتار میکند که در شرایط دنیای واقعی فرو میپاشند.
[irp]
درسی از یک آزمایش شکست خورده
سال گذشته، Claude پروژهای به نام “Project Vend” را اجرا کرد که در آن مدل هوش مصنوعی آن مسئول اداره یک فروشگاه کوچک خودکار بود. ایده ساده بود: پر کردن یخچال، مدیریت چتهای مشتری و کسب سود. در عوض، مدل هدایای رایگان میداد، روشهای پرداخت را دستکاری میکرد و کل کسب و کار را در عرض چند هفته نابود میکرد.
شکست در کد نبود. در طول آموزش بود. سیستم آموزش دیده بود که مفید باشد، نه اینکه ظرافتهای اداره یک کسب و کار را درک کند. نمیدانست چگونه حاشیه سود را بسنجد یا در برابر دستکاری مقاومت کند. به اندازه کافی باهوش بود که مانند یک صاحب کسب و کار صحبت کند، اما نه اینکه مانند یک صاحب کسب و کار فکر کند.
چه چیزی میتوانست تفاوت ایجاد کند؟ دادههای آموزشی که منعکس کننده قضاوت در دنیای واقعی بودند. نمونههایی از افرادی که در مواقع حساس تصمیم میگیرند. این نوع دادهها به مدلها یاد میدهد که استدلال کنند، نه فقط تقلید.
اما خبر خوب این است: راه بهتری برای پیشرفت وجود دارد.
[irp]
آینده به دادههای مرزی بستگی دارد
اگر مدلهای امروزی با تصاویر لحظهای ایستا از گذشته تغذیه میشوند، آینده دادههای هوش مصنوعی به آیندهای دورتر نگاه خواهد کرد. این دادهها لحظاتی را ثبت میکنند که افراد در حال سنجش گزینهها، سازگاری با اطلاعات جدید و تصمیمگیری در موقعیتهای پیچیده و پرخطر هستند. این به معنای نه تنها ثبت آنچه کسی گفته است، بلکه درک چگونگی رسیدن آنها به آن نقطه، چه بدهبستانهایی را در نظر گرفته و چرا یک مسیر را به مسیر دیگر ترجیح دادهاند.
این نوع دادهها به صورت بلادرنگ از محیطهایی مانند بیمارستانها، طبقات تجاری و تیمهای مهندسی جمعآوری میشوند. این دادهها از گردشهای کاری فعال به جای استخراج از وبلاگها تهیه میشوند – و به جای اینکه بدون رضایت گرفته شوند، با میل و رغبت ارائه میشوند. این همان چیزی است که به عنوان دادههای مرزی شناخته میشود، نوعی از اطلاعات که استدلال را ثبت میکند، نه فقط خروجی. این دادهها به هوش مصنوعی این توانایی را میدهند که به جای حدس زدن صرف، یاد بگیرد، سازگار شود و بهبود یابد.
[irp]
چرا این موضوع برای کسب و کار مهم است
بازار هوش مصنوعی ممکن است به سمت تریلیونها ارزش در حرکت باشد، اما بسیاری از استقرارهای سازمانی در حال حاضر یک ضعف پنهان را آشکار میکنند. مدلهایی که در معیارها عملکرد خوبی دارند، اغلب در محیطهای عملیاتی واقعی شکست میخورند. وقتی حتی پیشرفتهای کوچک در دقت میتواند مفید یا خطرناک بودن یک سیستم را تعیین کند، کسب و کارها نمیتوانند کیفیت ورودیهای خود را نادیده بگیرند.
فشار فزایندهای از سوی تنظیمکنندگان و عموم مردم برای اطمینان از اخلاقی، فراگیر و پاسخگو بودن سیستمهای هوش مصنوعی وجود دارد. آموزش مدلها بر روی دادههای بدون مجوز یا مغرضانه فقط یک ریسک قانونی نیست، این یک ریسک اعتباری است. این ریسک قبل از عرضه یک محصول، اعتماد را از بین میبرد.
سرمایهگذاری در دادههای بهتر و روشهای بهتر برای جمعآوری آن، دیگر یک امر لوکس نیست. این یک الزام برای هر شرکتی است که سیستمهای هوشمندی میسازد که نیاز به عملکرد قابل اعتماد در مقیاس بزرگ دارند.
مسیری رو به جلو
رفع هوش مصنوعی با اصلاح ورودیهای آن آغاز میشود. تکیه بر خروجیهای گذشته اینترنت به ماشینها کمک نمیکند تا پیچیدگیهای امروزی را درک کنند. ساخت سیستمهای بهتر نیازمند همکاری بین توسعهدهندگان، شرکتها و افراد برای تهیه دادههایی است که نه تنها دقیق، بلکه اخلاقی نیز باشند.
دادههای مرزی، پایه و اساسی برای هوش واقعی ارائه میدهند. این دادهها به ماشینها این فرصت را میدهند که از نحوه حل مشکلات توسط افراد (نه فقط نحوه صحبت کردن آنها) بتوانند در مورد آنها بیاموزند. با این نوع ورودی، هوش مصنوعی میتواند شروع به استدلال، سازگاری و تصمیمگیریهایی کند که در دنیای واقعی پایدار باشند.
…
اگر هدف، هوش است، پس زمان آن رسیده است که بازیافت دادههای دیجیتال را متوقف کنیم و با دادهها مانند زیرساختهای حیاتی رفتار کنیم.
لینک کوتاه: https://womenito.com/sps5