يقول الباحثون إن استخدام الذكاء الاصطناعي في الطب يثير أسئلة أخلاقية

حذرت دراسة علمية نشرتها مجلة “ذا نيو إنجلاند جورنال أوف ميديسين” من المشكلات الأخلاقية التي يُمكن أن يسببها استخدام الذكاء الاصطناعي في الأنظمة الصحية، مشددة على أن استخدام هذا النوع من الأدوات، سواء لإجراء تنبؤات خاصة بحالات المرضي أو اتخاذ إجراءات بديلة لعلاجهم، لا يُمكن أن يتحقق إلا بعد دراسة متأنية للمشكلات الأخلاقية التي يسببها التشخيص القائم على الذكاء الاصطناعي.

 

يعمل الذكاء الاصطناعي الآن على جمع بيانات المرضى وإعداد تقارير عنهم لمساعدة الأطباء على تشخيص حالتهم الصحية واتخاذ قرارات العلاج، غير أن الباحثين في كلية الطب بجامعة ستانفورد يقولون إن “وتيرة النمو في تلك التقنيات يجب أن يصاحبها دراسات لتقييم مخاطرها”.

تؤكد الدراسة أن “البيانات المستخدمة لإنشاء الخوارزميات التي تُولِّد نتائج يتم على أساسها اتخاذ قرارات خاصة بصحة المرضى يُمكن أن تكون عُرضة للتشويه، فقد يساء استخدامها اعتماداً على من يقوم بتطويرها وعلى دوافع المبرمجين أو الشركات أو نظم الرعاية الصحية التي تُصممها”.

 

يقول “دانتون شير” -استاذ مساعد التخدير بكلية الطب بجامعة ستانفورد والمؤلف الرئيسي للدراسة- في تصريحات لـ”للعلم”: “إن الأطباء يجب عليهم أن يكونوا على دراية واسعة بكيفية إنشاء الخوارزميات وتقييم مصدر البيانات المستخدمة في إنشاء النماذج الإحصائية المصممة للتنبؤ بالنتائج، وفهم كيفية عمل تلك النماذج”، موضحاً أن “التخوف الأساسي الذى تطرحه الدراسة هو احتمالية تصميم برامج من قبل القطاع الخاص تهدف إلى ضمان الوصول إلى نتائج معينة قد تضر بصحة المرضى أو بجودة الرعاية الصحية”.

وتسود تخوفات هائلة في المجتمع الطبي فيما يتعلق بمآلات البيانات التي تُجمع عن المرضى، والتي يُمكن استخدامها دون اعتبار للجانب الإنساني للرعاية الصحية، وبالتالي “يجب توخي الحذر في تلقين الذكاء الاصطناعي بالبيانات المحمية قانونًا والتي لا يجب الإفصاح عنها سوى للمريض نفسه”، وفق “شير”.

ويضيف أن “هناك كثيراً من المشكلات الناجمة عن الأزمة المتعلقة برغبة الأطباء في تحسين الرعاية الصحية ورغبة الشركات بتوليد الربح، والحل قد يكون في إنشاء “كتالوج أخلاقي” يؤدى إلى ممارسة أكثر استنارة ويتيح للطبيب اللحاق بعصر الذكاء الاصطناعي دون أن يتأثر المريض”.

SRC>>