آیا هوش مصنوعی میتواند شخصیت شما را شبیهسازی کند؟
در این مقاله به آیا هوش مصنوعی میتواند شخصیت شما را شبیهسازی کند؟ میپردازیم. با پیشرفت سریع فناوریهای هوش مصنوعی که در اسپیکر و هدفون نیز کاملا مشهود است، ایده ساخت ورژنهای دیجیتالی از انسانها یا دوقلوهای دیجیتال بیش از پیش به واقعیت نزدیک شده است. این ورژنها، با بازتاب شخصیت، ترجیحات و رفتارهای افراد، میتوانند در زمینههای متنوعی از تحقیقات اجتماعی گرفته تا کاربردهای شخصیسازیشده استفاده شوند.
روشهای مختلفی برای ایجاد این دوقلوها وجود دارد، از تحلیل دادههای موجود مانند ایمیلها تا انجام مصاحبههای کیفی. پژوهشهای اخیر، از جمله مقالهای که توسط تیمی از پژوهشگران استنفورد و گوگل دیپمایند منتشر شده است، نشان میدهند که مصاحبههای کوتاه میتوانند روشی کارآمد برای بازسازی شخصیت افراد باشند، روشی که ممکن است نیاز به دادههای حجیم و پیچیده را برطرف کند.
یک تیم از پژوهشگران دانشگاه استنفورد و گوگل دیپمایند روشی را معرفی کردهاند که میتواند آیندهای جذاب برای مدلهای هوش مصنوعی رقم بزند. طبق مقالهای که به تازگی در پلتفرم arXiv منتشر شده (و هنوز مورد داوری علمی قرار نگرفته است)، این فناوری به شما امکان میدهد با یک ورژن مجازی از خودتان ارتباط برقرار کنید، ورژنای که ارزشها و ترجیحات شما را با دقتی شگفتانگیز بازتاب میدهد.
تحت هدایت جون سونگ پارک، دانشجوی دکترای علوم کامپیوتر در دانشگاه استنفورد، این تیم 1000 نفر را با تنوع در سن، جنسیت، نژاد، منطقه جغرافیایی، سطح تحصیلات و ایدئولوژی سیاسی گردآوری کردند. این افراد که بابت مشارکت خود تا سقف 100 دلار دستمزد دریافت کردند، به مدت دو ساعت در مصاحبههایی که به دوران کودکی، خاطرات شکلدهنده، و دیدگاههای آنها درباره موضوعات مختلف (از جمله سیاست مهاجرت) میپرداخت، شرکت کردند.
از این مصاحبهها، مدلهایی مجازی یا “شبیهسازهایی” برای هر شرکتکننده ایجاد شد. برای ارزیابی دقت این مدلها، شرکتکنندگان آزمایشهای شخصیتی، نظرسنجیهای اجتماعی، و بازیهای منطقی را در دو نوبت، با فاصله دو هفته، انجام دادند. سپس ورژنهای هوش مصنوعی آنها نیز همین وظایف را تکمیل کردند. نتایج نشان داد که این مدلها با عملکرد واقعی افراد تا 85٪ شباهت داشتند.
این پیشرفت میتواند تحولی در تعاملات انسانی با هوش مصنوعی ایجاد کند و کاربردهای گستردهای از مشاورههای شخصیسازیشده تا مطالعه رفتار انسانی را در بر گیرد. جون سونگ پارک میگوید: «اگر بتوانید مجموعهای از ورژنهای کوچک از خودتان داشته باشید که واقعاً تصمیمهایی را بگیرند که شما میگرفتید، فکر میکنم این در نهایت آیندهای است که به سمت آن حرکت میکنیم.»
در مقالهای که این تیم منتشر کرده، این ورژنها “عوامل شبیهسازی” نامیده شدهاند. هدف از ایجاد آنها سادهسازی تحقیقات در علوم اجتماعی و دیگر حوزههاست که در شرایط واقعی میتواند پرهزینه، غیرعملی یا حتی غیراخلاقی باشد. ایده این است که اگر بتوانید مدلهای هوش مصنوعی ایجاد کنید که مانند انسانهای واقعی رفتار کنند، میتوانید از آنها برای بررسی موضوعاتی مانند میزان اثربخشی روشهای مقابله با اطلاعات نادرست در شبکههای اجتماعی یا تحلیل عواملی که باعث ایجاد ترافیک میشوند، استفاده کنید.
این عوامل شبیهسازی کمی با آنچه که شرکتهای پیشرو در حوزه هوش مصنوعی در حال حاضر توسعه میدهند، متفاوت هستند. عوامل فعلی که به “عوامل مبتنی بر ابزار” معروفند، بیشتر برای انجام کارها به جای مکالمه با شما طراحی شدهاند. به عنوان مثال، آنها ممکن است دادهها را وارد کنند، اطلاعات ذخیرهشده شما را بازیابی کنند، یا در آینده نزدیک، سفر شما را رزرو کرده و قرارهای ملاقاتتان را تنظیم کند.
به عنوان نمونه، شرکت Salesforce در سپتامبر عوامل مبتنی بر ابزار خود را معرفی کرد و Anthropic نیز در اکتبر اعلام مشابهی داشت. طبق گزارش بلومبرگ، OpenAI نیز قصد دارد تا ژانویه این عوامل را عرضه کند.
این دو دسته از عوامل نمایانگر مسیرهای متفاوت در توسعه هوش مصنوعی هستند: یکی برای بازتاب رفتار و تصمیمگیری انسانی و دیگری برای خودکارسازی وظایف عملی.
دو نوع عامل هوش مصنوعی که در اینجا معرفی شدهاند، هرچند متفاوتاند، اما نقاط مشترکی نیز دارند. جان هورتون، دانشیار فناوری اطلاعات در دانشکده مدیریت اسلون دانشگاه MIT و بنیانگذار شرکتی که از شرکتکنندگان شبیهسازی شده با هوش مصنوعی برای تحقیقات استفاده میکند، میگوید که تحقیقات درباره عوامل شبیهسازی، مانند آنچه در این مقاله آمده است، احتمالاً به تقویت کلی عوامل هوش مصنوعی منجر خواهد شد.
او در ایمیلی به MIT Technology Review نوشت: «این مقاله نشان میدهد که چگونه میتوانید یک روش ترکیبی ایجاد کنید: از انسانهای واقعی برای تولید شخصیتهایی استفاده کنید که سپس میتوانند به صورت برنامهریزیشده یا در شبیهسازی به روشهایی به کار روند که با انسانهای واقعی ممکن نیست.»
هشدارها و چالشها
با این حال، این تحقیقات همراه با هشدارهایی است که نمیتوان آنها را نادیده گرفت، از جمله خطرات احتمالی که به آن اشاره دارد. همانطور که فناوری تولید تصاویر باعث شده است به راحتی “دیپفیک” های مخرب از افراد بدون رضایت آنها ایجاد شود، هر فناوریای که بتواند عوامل هوش مصنوعی ایجاد کند نیز سوالاتی را درباره سوءاستفاده احتمالی از این ابزارها برای شخصیتپردازی دیگران به صورت آنلاین مطرح میکند. این عوامل ممکن است چیزهایی را بگویند یا تأیید کند که فرد اصلی هرگز قصد انجام آن را نداشته است.
محدودیتهای روشهای ارزیابی
روشهای ارزیابی که تیم پژوهشی برای سنجش کیفیت شبیهسازی عوامل هوش مصنوعی استفاده کردهاند نیز تا حدی ساده بودند. این روشها شامل استفاده از General Social Survey میشدند که اطلاعاتی درباره دموگرافی، شادی، رفتارها و دیگر موارد افراد جمعآوری میکند، و همچنین ارزیابی ویژگیهای شخصیتی معروف به Big Five شامل: باز بودن به تجربه، وظیفهشناسی، برونگرایی، سازگاری، و روانرنجوری.
هرچند این تستها ابزارهای رایج در تحقیقات علوم اجتماعی هستند، اما توانایی ثبت تمام جزئیات منحصربهفرد که ما را “خودمان” میکند، ندارند. از سوی دیگر، عوامل هوش مصنوعی در پخش رفتارهای انسانی در تستهای رفتاری مانند بازی دیکتاتور که برای بررسی ارزشهایی مانند انصاف طراحی شده، عملکرد ضعیفتری داشتند. این نشان میدهد که عوامل شبیهسازی هنوز بهطور کامل قادر به تقلید از پیچیدگیهای اخلاقی و رفتاری انسانها نیستند.
برای ساخت یک عامل هوش مصنوعی که بتواند به خوبی افراد را شبیهسازی کند، پژوهشگران نیاز داشتند راههایی پیدا کند تا ویژگیهای منحصربهفرد هر فرد را به شکلی که مدلهای زبانی هوش مصنوعی قادر به درک آن باشند، تقطیر کند. به گفته جون سونگ پارک، آنها برای این هدف مصاحبههای کیفی را انتخاب کردند.
او معتقد است که مصاحبهها کارآمدترین روش برای شناخت افراد هستند، نظری که پس از حضور در تعداد زیادی پادکست به آن رسید. او در سال 2023 مقالهای درباره عوامل تولیدی نوشت که باعث شد علاقه زیادی به این حوزه ایجاد شود. جون توضیح میدهد: «من شاید در یک مصاحبه دو ساعته پادکستی شرکت میکردم و بعد از آن احساس میکردم، واو، حالا مردم اطلاعات زیادی درباره من دارند. دو ساعت میتواند بسیار تأثیرگذار باشد.»
اهمیت شناسایی ویژگیهای منحصر به فرد
این مصاحبهها میتوانند نکات خاص و یکتایی را آشکار کند که احتمالاً در پرسشنامهها قابل شناسایی نیستند. او مثالی میزند: «تصور کنید کسی به تازگی سرطان داشته و سال گذشته بهبود پیدا کرده است. این اطلاعات بسیار منحصربهفرد درباره شما میتواند چیزهای زیادی درباره نحوه رفتار و تفکرتان بگوید.» طراحی سوالاتی در قالب یک نظرسنجی که بتواند چنین خاطرات و واکنشهایی را آشکار کند، بسیار دشوار است.
این رویکرد نشان میدهد که برای ساخت عوامل هوش مصنوعی که بتوانند بازتاب دقیقی از افراد باشند، نیاز به درک عمیقتری از تجربیات انسانی وجود دارد، چیزی که فقط از طریق تعاملات کیفی و عمیق مانند مصاحبه ممکن است به دست آید.
مصاحبهها تنها گزینه موجود برای ایجاد ورژنهای دیجیتالی از افراد نیستند. شرکتهایی مانند Tavus که خدمات ساخت “دوقلوهای دیجیتال” را ارائه میدهند، از مدلهای هوش مصنوعی خود برای تحلیل ایمیلها یا دادههای دیگر شما استفاده میکنند. با این حال، به گفته حسّان رضا، مدیرعامل Tavus، این روش معمولاً نیازمند مجموعه دادهای بزرگ است تا بتواند شخصیت فرد را بازسازی کند.
اما مقاله جدید مسیر کارآمدتری را پیشنهاد میدهد. رضا میگوید: «چیزی که واقعاً جالب بود این است که نشان میدهد شاید نیازی به اطلاعات زیادی نباشد.» او افزود که شرکتش قصد دارد این رویکرد را آزمایش کند. «چطور است که شما امروز 30 دقیقه و فردا 30 دقیقه با یک مصاحبهگر هوش مصنوعی صحبت کنید؟ سپس ما از این اطلاعات برای ساخت دوقلوی دیجیتال شما استفاده میکنیم.»
رویکردی سادهتر و سریعتر
این روش نه تنها نیاز به دادههای حجیم را کاهش میدهد، بلکه فرآیند را برای شما سادهتر و قابلدسترستر میکند. به جای اینکه دادههای گستردهای از تعاملات روزمره جمعآوری شود، مصاحبههای کوتاه میتوانند اطلاعات کافی برای بازسازی شخصیت فرد فراهم کند. این تغییر در رویکرد میتواند کاربردهای گستردهتری را برای “دوقلوهای دیجیتال” ممکن کند، از شبیهسازی تعاملات شخصی گرفته تا مشاورههای کاملاً شخصیسازیشده در زمینههای مختلف.
کلام آخر
تحقیقات جدید نشان میدهد که ایجاد دوقلوهای دیجیتال نیازی به اطلاعات گسترده و پرهزینه ندارد. مصاحبههای هدفمند و کیفی میتوانند به روشی سریع و مؤثر برای بازتاب شخصیت و رفتارهای افراد تبدیل شوند. این یافته نه تنها میتواند روشهایی کارآمدتر برای تحقیقات علمی ارائه دهد، بلکه کاربردهای عملی در حوزههایی مانند مشاوره، بازاریابی و خدمات شخصیسازیشده را نیز ممکن میسازد.
با این حال، این فناوری با چالشهایی مانند مسائل اخلاقی و خطرات سوءاستفاده روبرو است که باید بهطور جدی مورد بررسی قرار گیرند. آینده دوقلوهای دیجیتال به ترکیبی از نوآوری، شفافیت و نظارت دقیق بستگی دارد.
پاسخگوی سوالات شما هستیم
دیدگاهی وجود ندارد!