من الحدس إلى الاحتمال.. كيف يعيد الذكاء الاصطناعي صياغة القرار الطبي؟
أربيل (كوردستان24)- لم يعد القرار الطبي مجرد خيار مهني يستند إلى خبرة الطبيب المتراكمة وقراءته لملامح مريضه، بل بات يقف اليوم على أعتاب تحول جذري تقوده التكنولوجيا التنبؤية. ففي الوقت الذي كان فيه التشخيص يُعد مزيجاً بين العلم والحدس الإنساني، دخل الذكاء الاصطناعي ليحول "القرار" من عملية فهم إنسانية إلى معادلة احتمالية.
كشفت دراسة حديثة نُشرت في أبريل (نيسان) 2026 بمجلة "جاما للطب النفسي" (JAMA Psychiatry)، عن قفزة نوعية في دقة اختيار الأدوية النفسية. وبحسب الدراسة التي حللت بيانات أكثر من 300 ألف مريض، تمكنت النماذج التنبؤية من تقدير الاستجابة لمضادات الاكتئاب (SSRIs) بدقة وصلت إلى 74%، متفوقة بشكل ملحوظ على الممارسة التقليدية التي سجلت دقة تقارب 48%.
هذا التفارق الرقمي يشير إلى تحول في "فلسفة السؤال" داخل العيادة؛ فبدلاً من تساؤل الطبيب التقليدي: "أي دواء أختار بناءً على خبرتي؟"، بات السؤال المحوري: "ما هو الخيار الذي يمنح المريض أعلى نسبة احتمال للنجاح وفقاً للبيانات الضخمة؟".
في العيادات النفسية اليوم، يبرز نموذج جديد للتعامل مع الحالات؛ حيث لم يعد الطبيب يبدأ من الصفر، بل من تقدير احتمالي مسبق تقدمه الأنظمة الذكية. فإذا أشار النظام إلى أن دواءً معيناً يحظى بفرصة نجاح تصل إلى 68%، يجد الطبيب نفسه أمام تحدٍ جديد: هل يتبع حدسه المهني المستمد من السياق الاجتماعي والنفسي للمريض، أم ينحاز لليقين الإحصائي الذي توفره الخوارزمية؟
ويرى مراقبون أن هذا التحول يعيد تعريف دور الطبيب، ليتحول من "صانع قرار منفرد" إلى "حارس للمعنى الإنساني" ومفسر للتوصيات الخوارزمية، محاولاً جسر الفجوة بين الأرقام وبين تعقيدات الحياة الإنسانية التي لا يمكن قياسها دائماً بالبيانات.
رغم هذه الدقة، يحذر الخبراء من "سطوة الأرقام"؛ فالذكاء الاصطناعي يحلل أنماطاً إحصائية ولا "يفهم" المريض ككيان إنساني بظروفه الاجتماعية وتاريخه الشخصي المعقد. وتكمن الخطورة -حسب مختصين- في قدرة هذه الأنظمة على إقناع الأطباء بنتائجها نتيجة "قوة العرض الرقمي" في بيئات عمل تلهث خلف السرعة والكفاءة.
يفتح هذا التطور الباب أمام تساؤلات أخلاقية عميقة حول "الطب النفسي الشخصي"؛ فبينما تسعى الخوارزميات لتخصيص العلاج، يبقى الاكتئاب حالة متداخلة من العوامل البيولوجية والاجتماعية التي يصعب اختزالها في كود برمجِي.
ومع تزايد الاعتماد على هذه التقنيات، يظل السؤال الجوهري قائماً: في حال فشل الخيار العلاجي "الأكثر احتمالاً"، من يتحمل المسؤولية؟ هل هو الطبيب الذي وقع القرار، أم النظام الذي قدم التوصية؟
الذكاء الاصطناعي قد يوجه الدفة، لكنه لا يتحمل تبعات الرحلة. ويبقى القرار الطبي، في جوهره، فعلاً إنسانياً بامتياز، يرفض الاختزال في مجرد رقم، مهما بلغت دقة الخوارزمية.