
خطای هالوسینیشن (Hallucination) هوش مصنوعی: دلایل و رفع آن در نگارش علمی
حتما براتون پیش اومده که دستور یا پرامپتی رو به مدل هوش مصنوعی دادید و در جواب مدل هوش مصنوعی، خروجی رو براتون تولید کرده که درست نبوده، این خروجی نادرست تولیدی با مدل LLM رو به عنوان خطای هالوسنیشن یا تولید محتوای ساختگی میشناسن. ما در این مقاله دلایل ایجاد خطا و راهکارهای رفع اون رو به ویژه در نگارش متون علمی بررسی میکنیم.
منظور از خطای هالوسینیشن (Hallucination) در هوش مصنوعی چی هست ؟
در حوزه مدلهای زبانی بزرگ (LLM)هر پاسخ یا جزئیاتی که مدل با ظاهری قانع کننده ولی فاقد مبنای واقعی تولید میکند، «هالوسینیشن» گفته میشه. این اصطلاح تشبیهی از یک واژه روانپزشکی است ( به معنی توهم دیداری/شنیداری)، امّا در به چه AI معنی هست،چه ویژگی هایی داره و به چه دلایلی این خطا ایجاد میشه.
دلایل ایجاد خطای هالوسنیشن میتونه به خاطر ترین( train) مدل با داده های قدیمی باشه یا اینکه در مدل های هوش صمنوعی چونChatGPT, ...پارامترهای مدل(پارامترهای:دما، استایل، لحن و ...) طوری تنظیم بشن که مثلا تنظیمات مربوط به خلاقیت مانند دما یا توزیع کلمات بالا در نظر گرفته بشه که منجر به تولید محتوای خلاقانه و بدون رفرنس یا همون محتوای ساختگی میشه.
یا اگر شما در طراحی پرامپت و دستور ورودی به مدل دقت نکنید و دستورات ساختاریافته ای که تمام ورودی ها و محدودیت هاش و چارچوب های لازم رو برای مدل مشخص نکنید مدل هوش مصنوعی ممکن هست محتوای درستی در راستای هدف شما تولید نکنه. چون مدل های هوش مصنوعی به گونه ای طراحی شدن که به هر شکلی بایستی پاسخی تولید بکنن و همین ویژگی میتونه دلیل ایجاد خطای هالوسنیشن باشه.
ویژگیها و دلایل اصلی ایجاد خطای هالوسینیشن"مدلهای LLM":
|
چرا خطای هالوسینیشن برای نگارش متون علمی خطرناک است؟
در انجام کارهای تحقیقی و علمی شما باید از داده های درست و با رفرنس دهی معتبر استفاده کنید تا اعتبار علمی کار تحقیقی شما حفظ بشه. حالا اگر به دلایل بالا در انجام کار علمی با هوش مصنوعی محتوای ساختگی تولید کنید این خطا میتونه اعتبار علمی شما رو دچار خدشه بکنه.
- ممکن است ارجاعات جعلی که وجود نداره توسط هوش مصنوعی تولید بشه.
- ارقام و نتایج آماری ساختگی که میتونند مسیر پژوهش را منحرف کنند.
- تشخیص خطا برای داور یا خواننده نهایی وقتگیر هست و به اعتماد علمی آسیب میزنه.
پس برای اینکه بتونیم جلوی تولید محتوای ساختگی توسط مدلهای هوش مصنوعی رو بگیریم باید ببینیم چه کار باید کرد و چه راهکارهایی داریم:
راهکارهای عملی برای رفع "خطای هالوسینیشن" در "پژوهش های علمی":
برای رفع خطای تولید محتوای ساختگی یا هالوسنیشن در خروجی های تولید شده توسط مدلهای هوش مصنوعی به ویژه در انجام کارهای علمی و تحقیقاتی چند تا راه حل وجود داره که با به کار بردن این راه حل ها میشه خطای تولید محتوای ساختگی رو تا حد بالایی کنترل کرد. در جدول زیر این راه کارها رو بررسی کردیم.

«راهکارهای رفع هالوسینیشن»
مرحله | روش پیشنهادی | ابزار/تکنیک |
طراحی پرامپت | استفاده از داده زمینهای واقعی (citations in → citations out)، تعیین قالب خروجی و درخواست استناد صریح. | Structured prompt + “include DOIs”. |
تولید اولیه | محدودکردن دما (≤0.3) برای کارهای پژوهشی، تقسیم کار به چند گام کوتاه Chain of Thought کنترلشده | Advanced settings در ChatGPT / Claude. |
راستیآزمایی سریع | اجرای پرسش «Source Check» تحت عنوان “list every reference you just relied on with DOI”، تطابق DOI با Crossref یا PubMed | Crossref API, Scite.ai, Consensus. |
بازبینی عمیق | خواندن مقاله اصلی؛ مقایسه نقلقول با متن واقعی، جستوجوی جملات کلیدی برای کشف تحریف یا حذف قیدها. | Full-text search در Zotero, Connected Papers. |
پایش مستمر | ذخیره پرامپتها + خروجی در یک مخزن برای Reproducibility استفاده از ابزارهای آشکارساز خطاFact Score، Reference-Validator. | Git + Markdown logs, Scite Reference Check. |
در واقع برای اینکه بتونیم خطای هالوسنیشن رو رفع بکنیم بایستی در طراحی پرامپت ورودی به هوش مصنوعی از پرامپت های ساختار یافته ایجنت محور استفاده کنیم و در طراحی پرامپت ها از کلماتی استفاده کنیم که نقش تنظیم پارامترها رو داشته باشن. دقت خروجی های تولید شده با مدل هوش مصنوعی رو با استفاده کردن از کلمات کلیدی و تعیین ورودی، منابع و چارچوب ها افزایش بدیم. با بازبینی عمیق و پایش مستمر تمام خروجی ها مانع ایجاد محتوای ساختگی بشیم که بر اساس چک لیست شامل مراحل: 1-طراحی پرامپت، 2-ذخیره سازی داده ها، پرامپت ها، ورودی ها و خروجی ها، 3-بررسی پایایی و روایی محتوا با ثابت نگه داشتن تنظیمات مدل و درخواست رفرنس در خروجی ها و 4-ایجاد شفافیت و ذخیره تمام مسیر در انجام کار تحقیقی از بروز خطای هالوسنیشن جلوگیری کنیم.
1. طراحی پرامپت ساختار یافته (Structured Prompting)
- الگوی ثابت برای پرامپتها:
- نقش (Role): «تو یک پژوهشگر علوم اعصاب هستی…»
- وظیفه (Task): «یک چکیده ۲۵۰ کلمهای بنویس…»
- قالب خروجی (Format): «بسته به موضوع با پاراگرافهای مشخص…»
- منبع (Source): «بر اساس مقالههای PubMed با IF>۵…»
- تعیین تمام جزییات به عنوان ورودی/ خروجی و مراحل به صورت زنجیره ای
- اجتناب از پرامپتهای پراکنده یا چندوجهی:
- هر پرامپت فقط یک وظیفه اصلی داشته باشد.
- از عبارات مبهم پرهیز شود.
2. ذخیرهسازی کامل ورودی و خروجیها
- نامگذاری منظم فایلها:
- `prompt_v1.2_2025-08-12_neuroscience_intro.txt`
- `output_v1.2_2025-08-12_neuroscience_intro.md`
3. حفظ پایایی (Consistency)
- ثابت نگهداشتن تنظیمات مدل:
- تعیین دقیق پارامترهایی مانند `temperature`, `top-p`, `seed`.
- الگوی ثابت برای بازبینی:
- چکلیست بازبینی: اصطلاحات تخصصی، ارجاعدهی، ساختار جملهها.
- ارجاعدهی قابل ردیابی:
- ذکر منبع دقیق (DOI، PMID، لینک معتبر) در متن یا پیوست.
- بازبینی انسانی مرحلهای:
- مرحله اول: بررسی خودکار با ابزارهایی مانند Semantic Scholar API.
- مرحله دوم: بازبینی توسط محقق.
5. شفافیت و قابلتکرار بودن (Reproducibility)
- درج «متادیتای کامل» در خروجی نهایی:
- نام مدل، نسخه، تاریخ، پرامپت کامل، پارامترها، لینک منبع.
- تهیه«دفترچه تکرارپذیری» (Reproducibility Notebook):
- مراحل، ابزار، ورودی ها و خروجی ها و .....
- قالب پیشنهادی برای یک «پروژهAI-assisted»:
```
project-root/
├── prompts/
│ └── v1.2_introduction.txt
├── outputs/
│ └── v1.2_introduction.md
├── references/
│ └── sources.json
├── logs/
│ └── error_log_2025-08-12.csv
└── reproducibility.md
```
چک لیست مراحل جلوگیری از خطای هالوسنیشن
| بعد کلیدی | نکته طلایی |
|--------------------|-----------------------------------------------|
| پرامپت | الگوی ثابت: نقش + وظیفه + قالب + منبع |
| ذخیرهسازی | نامگذاری منظم + نسخهبندی + متادیتای کامل |
| پایایی | ثابت نگهداشتن پارامترها و چکلیست بازبینی |
| روایی | ارجاعدهی قابل ردیابی + بازبینی خبره |
| شفافیت | دفترچه تکرارپذیری + مستندسازی کامل |







