بينما يستخدم كثيرون تقنيات الذكاء الاصطناعي لإنشاء صور كرتونية مرحة لأنفسهم، لجأ آخرون إلى هذه التكنولوجيا لإعادة إحياء ذكريات أحبائهم الراحلين.
لكن يبدو أن استخدام الذكاء الاصطناعي قد بلغ مؤخرًا مرحلة جديدة غير مسبوقة داخل أروقة المحاكم.
ففي ولاية أريزونا الأمريكية، شهدت إحدى جلسات النطق بالحكم واقعة استثنائية، حيث ظهر نموذج افتراضي لشخص متوفى، تم إنشاؤه باستخدام الذكاء الاصطناعي، ليوجه حديثه مباشرة إلى الشخص المدان بقتله.
إعادة ذكرى الموتى
كان يمثل النموذج الجندي السابق في الجيش الأمريكي كريستوفر بيلكي (37 عامًا)، والذي لقي مصرعه في حادث إطلاق نار ناتج عن شجار مروري عام 2021، وقد تم عرض النسخة الرقمية منه داخل محكمة مقاطعة ماريكوبا العليا، قبل إصدار الحكم على القاتل جابرييل بول هوركاسيتاس.
ظهر النموذج الرقمي في مقطع مصور وهو يرتدي سترة خضراء وله لحية كاملة، ووقف أمام خلفية بيضاء بسيطة.
وقد بدأ الفيديو بتوضيح أن هذه النسخة ليست حقيقية، بل تم إنشاؤها عبر الذكاء الاصطناعي، وهو ما كان ملحوظًا من خلال بعض العيوب البسيطة في جودة الصوت وحركة الشفاه غير المتزامنة بدقة مع الكلام.
وأعرب "بيلكي" الافتراضي في رسالته عن إحساسه بالسخرية المأساوية من الموقف، قائلًا إنه كان من الممكن – في ظروف مختلفة – أن يصبح هو والجاني أصدقاء.
تخليد ذكرى
أكدت أسرة بيلكي أن الهدف من إنشاء هذا النموذج الرقمي لم يكن استخدامه كدليل قانوني، بل لتخليد ذكرى فقيدهم والتعبير عن الألم النفسي الذي يعانونه. وقد سمحت المحكمة بعرض الفيديو خلال جلسة النطق بالحكم نظرًا لعدم اعتباره جزءًا من الأدلة الرسمية. وأسفر الحكم عن إدانة "هوركاسيتاس" بتهمة القتل غير العمد وتعريض الآخرين للخطر، وحُكم عليه بالسجن لمدة 10 سنوات ونصف.
ستايسي ويلز، شقيقة بيلكي، هي من كتبت نص الرسالة التي ألقاها النموذج الافتراضي، بعد أن وجدت صعوبة في التعبير عن حزنها بالكلمات المباشرة. وأشارت إلى أنها شخصيًا لم تستطع مسامحة القاتل، لكنها تعتقد أن شقيقها كان سيتصرف بطريقة أكثر تعاطفًا.
وأضافت أن الهدف من الفيديو كان إبراز إنسانية شقيقها أمام المحكمة وتسليط الضوء على الأثر العاطفي العميق للجريمة. وقد تعاونت مع زوجها وأحد أصدقائهما المتخصصين في مجال التقنية لإنتاج هذا النموذج.
تقنية تثير الجدل
يمثل هذا الاستخدام الجديد لتقنيات الذكاء الاصطناعي في القضايا القانونية توجهًا عاطفيًا معقّدًا، وسط تزايد النقاشات حول أخلاقيات الذكاء الاصطناعي في المحاكم.
ففي حين كانت المحاكم متحفظة في السابق تجاه استخدام الذكاء الاصطناعي، خاصة بعد حوادث استعان فيها محامون بحالات قانونية "وهمية" أنشأها الذكاء الاصطناعي، فإن هذا المثال يضيف بعدًا جديدًا يتعلق بالتأثير العاطفي دون التورط في تقديم أدلة مزيفة.
رؤية قانونية
وفي هذا السياق، أوضح هاري سوردن، أستاذ القانون بجامعة كولورادو، أن استخدام المحتوى المُولد بالذكاء الاصطناعي داخل المحكمة يثير إشكاليات أخلاقية، إذ يمكن أن يتجاوز التفكير النقدي ويتوجه مباشرة إلى مشاعر الحضور، مما يجعله أكثر تأثيرًا – وربما أكثر خطورة – من الأدلة التقليدية.
وأكد أن مثل هذه الأدوات قد تبدو واقعية للغاية، لكنها تظل "مصطنعة" ويجب التعامل معها على هذا الأساس.
0 تعليق