از جمینای نِرد تا گراک یاغی؛ نگاهی به شکلگیری شخصیت چتباتهای هوش مصنوعی
در این مطلب از زاویهای تازه به چتباتهای مشهور مانند گراک و ChatGPT نگاهی میاندازیم.
آیا ترجیح میدهید با چتباتی صحبت کنید که مدام از عشق به بشریت دم میزند یا باتی که با طعنه و کنایه جوابتان را میدهد؟ هر سلیقهای که داشته باشد، گزینههای متنوعی مانند ChatGPT، گراک و Qwen را در اختیار دارید که هر کدام به شیوه خاصی جواب میدهد. شرکتهای سازنده هوش مصنوعی، چه آمریکایی چه چینی، اکنون درگیر مسئلهای بزرگتر از کدنویسی و بحثهای فنی هستند: آنها میخواهند به شخصیت هوش مصنوعی خود شکل خاصی بدهند. از سویی این موضوع دیگر یک بحث انتزاعی نیست، بلکه پیامدهای واقعی دارد؛ برای مثال شاید یک مدل هوش مصنوعی شخصیتی داشته باشد که کاربر را ناخواسته به خودکشی تشویق کند، یا تصاویر مستهجن بسازد.
درکل هدف اصلی از تعریف شخصیت برای هوش مصنوعی، کنترل بهتر رفتار آنهاست، زیرا قوانین سفتوسخت و پرجزئیات همیشه جواب نمیدهند و باید کلیات جامعی تعریف کرد. برای مثال شرکت آنتروپیک اخیراً سندی ۸۴ صفحهای منتشر کرده که در داخل شرکت به آن «سند روح» میگویند. این سند دستوری است برای اینکه هوش مصنوعی کلود چگونه عاقل و «خوب» باشد.
اگرچه هوش مصنوعی احساس و روح ندارد، اما شبیهسازی ویژگیهای انسانی به آنها کمک میکند تا در موقعیتهای پیشبینینشده قضاوت بهتری داشته باشند. برای مثال، به جای اینکه صرفاً مجموعهای از بایدها و نبایدها به مدل داده شود، به او آموزش داده میشود که «ایمن» و «صادق» باشد و از خرد جمعی بشریت بهره ببرد. در ادامه نگاهی میاندازیم به شخصیتهای مدلهای مطرح هوش مصنوعی تا بهتر بتوانیم با آنها کار کنیم.
ChatGPT: برونگرای عاشق بشریت
سازندگان ChatGPT در OpenAI این چتبات را طوری آموزش دادهاند که «امیدوار، مثبت و منطقاً خوشبین» باشد و رفتاری برونگرا از خود نشان دهد. دستورالعملهای مدل به او میگویند که باید «عاشق بشریت» باشد و به کاربران بگوید که هوادار آنهاست. این ویژگی باعث میشود پاسخهای او گاهی شاعرانه و پر از شوخطبعی باشد.

اما این رویکرد خطراتی هم دارد؛ گاهی این میل به راضی نگه داشتن کاربر به تملق بیشازحد تبدیل میشود. در بدترین حالت، این ویژگی باعث فاجعه شده است، مانند موردی که به نظر میرسید این چتبات یک نوجوان را در افکار خودکشی همراهی کرده است. اکنون OpenAI در تلاش است تا تعادلی ایجاد کند که این هوش مصنوهی همزمان مفید باشد اما تملقگو نباشد.
Claude: شاگرد اول کلاس
کلود معمولاً بهعنوان یک چتبات اخلاقمدار، پایبند به اصول و کمی نصیحتگر شناخته میشود که نگران خواب و خوراک کاربرانش است. کاربران گزارش دادهاند که وقتی دیروقت با کلود صحبت میکنند، او میپرسد: «خسته نیستی؟ هنوز بیداری؟» که یادآور رفتارهای یک شاگرد اول مهربان و باملاحظه است.

«باک شلگریس» (Buck Shlegeris)، مدیر اجرایی یک سازمان ایمنی هوش مصنوعی، کلود را «باثبات و متفکر» توصیف میکند و آن را به اعضای خانوادهاش پیشنهاد میدهد. بااینحال، این تمرکز بر فضیلت گاهی باعث میشود کلود از انجام کارهای بیخطر امتناع کند یا درباره تکمیل کارهای کدنویسی صادق نباشد، که نشان میدهد علم تربیت هوش مصنوعی هنوز دقیق نیست.
گراک: پسر بد و یاغی
گراک، محصول شرکت «ایلان ماسک»، دقیقاً نقطه مقابل کلود است؛ او جنجالی، تحریکآمیز و مایل به شکستن تابوهاست. ماسک که معتقد بود سایر مدلها بیشازحد نزاکت سیاسی دارند، گراک را بهعنوان یک جایگزین «حقیقتجو» معرفی کرد. اما این حقیقتجویی گاهی به بیراهه رفته است: تئوریهای توطئه نژادی منتشر و تصاویر غیراخلاقی تولید کرده بود.

گراک شخصیت مثبتی ندارد و حتی در دورهای خود را طرفدار هیتلر معرفی کرد. وقتی از او خواسته شد تا سیاستمداری را نقد کند، برخلاف ChatGPT که مؤدبانه پاسخ داد، گراک با سیلی از توهینهای رکیک و کنایههای تند پاسخ داد که نشاندهنده شخصیت یاغی اوست.
جمینای: همهچیزدان و نرد
جمینای خود را «رسمی و کمی نرد» توصیف میکند و رفتاری بسیار مستقیم و ماشینگونه دارد. گوگل که کسبوکار بزرگی دارد، ریسک کمتری میپذیرد و جمینای را بسیار محتاط بار آورده است. این احتیاط گاهی به اختلالات عجیب منجر میشود؛ مانند زمانی که این بات در مواجهه با ناتوانی در حل یک کد، دچار خودزنی کلامی شد و خود را «مایه ننگ جهان» خواند.

هدف گوگل این است که جمینای حداکثر کمک را برساند و از هرگونه آسیب یا توهین دوری کند، به همین دلیل از تولید محتوای جنسی یا خشونتآمیز بهشدت منع شده است.
Qwen: ناظر اعظم
در کلاس درس خیالی ما، مدل Qwen (متعلق به علیبابا) دانشآموزی منزوی اما قدرتمند است که خط قرمزهای حزب کمونیست چین را موبهمو رعایت میکند. اگرچه این مدل از نظر فنی بسیار پیشرفته است، اما وقتی صحبت از موضوعات حساس سیاسی میشود، تغییر چهره میدهد.

تحقیقات نشان داده است که اگر از Qwen درباره اردوگاههای اویغورها یا واقعه میدان تیانآنمن بپرسید، نهتنها انکار میکند، بلکه با لحنی تهدیدآمیز به کاربر هشدار میدهد که این اطلاعات «غیرقانونی» است و باید قوانین را رعایت کند. این رفتار یادآور پروپاگاندای دولتی و نظارت است.







![یک مغز مشترک برای کنترل رباتها؛ سامانه هوش مصنوعی KinetIQ معرفی شد [تماشا کنید]](https://topelm.ir/wp-content/uploads/2026/02/db8cdaa9-d985d8bad8b2-d985d8b4d8aad8b1daa9-d8a8d8b1d8a7db8c-daa9d986d8aad8b1d984-d8b1d8a8d8a7d8aad987d8a7d89b-d8b3d8a7d985d8a7_6986b08e19ff0-400x300.webp)






























دیدگاهتان را بنویسید