تعددت المفاهيم والتعريفات للذكاء الاصطناعي في وقتنا الحاضر، كما اختلف الباحثون على وضع تعريف دقيق للذكاء الاصطناعي، انقسمت تصنيفات الذكاء الاصطناعي، فهناك من ينادي بأن تكون سلوكيات أنظمة الذكاء الاصطناعي تتماشى مع الذكاء البشري وتحاكيه، أما الطرف الآخر فيرفض هذا الشيء بل ويقول بأنه ليس من الضروري أن تعتمد الأنظمة على نفس الطرق، والآليات التي يستخدمها البشر للوصول لسلوك معين. رغم اختلاف التعابير في شرح ووصف الذكاء الاصطناعي، إلا أنهم يجتمعون في نقطة واحدة، وهي بناء نظام ذكي يتفوق على العوائق، التي تواجه الذكاء البشري أو تباطؤه، ولعل عامل الوقت خير مثال على ذلك. يمكننا تعريف الذكاء الاصطناعي، بأنه حاسوب يتم التحكم به، بواسطة برنامج يفكر بذكاء مماثل للذكاء الإنساني. طالت يد الذكاء الاصطناعي بالدخول والضلوع في أغلب، إن لم يكن كل، مجالات الحياة العلمية والمعرفية، فتجده تارة في الصحة والمحاسبة والقانون وبعض الأعمال اليدوية، والصناعات بمختلف مجالاتها، وبرامج تعليم اللغة وغيرها. مع التطور الإلكتروني الذي تسارعت وتيرته، ظهر العديد من الأبحاث والدراسات مؤخرا، لدراسة العلاقة بين الذكاء الاصطناعي والقانون، و أثار معه العديد من التساؤلات، حول العديد من الجوانب القانونية للذكاء الاصطناعي، ولعل أهم ما أثاره هو «المسؤولية الجنائية للذكاء الاصطناعي». تعتبر المسؤولية هي الأساس القانوني، الذى يبنى عليه توجيه أصابع الاتهام بالجريمة إلى شخص معين، لذلك لا بد أن تكون هناك عناصر معينة تقوم عليها، كوجود نص قانوني «يصور الجريمة»، أو ارتكاب فعل أو عدة أفعال مادية، والحالة العقلية بأن تقع من شخص مكلف، وقيام الركن المعنوي اللازم لارتكاب جريمة، والعقاب عليها في أغلب الأنظمة الإجرامية، كذلك العنصر الذهني الذي يدفع الشخص لارتكاب الجريمة. لكي يتم إيضاح الصورة للقارئ العزيز، لنفترض أن لدينا روبورتا يؤدي عملا استشاريا - جراحة قلب - وبسبب خطأ طبي تسبب بنزيف حاد للمريض، ما أودى بحياته، من سيتحمل المسؤولية الجنائية في هذه الحالة ؟ لانستطيع الإجابة عن هذا السؤال بطريقة واضحة بعد، لكن لعلنا نطرح سؤالا آخر ونجيب عنه بعدة نقاط، هل يمكننا اعتبار الروبورتات وما في حكمها وضعا قانونيا؟ وكيف تكون نظرتنا القانونية إليها؟ هل هم بشر أم حيوانات أمو جماد، أم علينا استحداث فئة جديدة، لها حقوق وعليها التزامات؟! المتفق عليه بشكل عام على المستوى الأوروبي، تغطي القواعد الحالية للمسؤولية، الحالات التي يمكن فيها إرجاع سبب فعل الروبوت، أو إغفاله إلى وكيل بشري معين، مثل الشركة المصنعة أو المالك أو المستخدم، وأن يمكن لهذا الوكيل أن يتنبأ ويتجنب السلوك الضار للروبوت. من منظور آخر تم وضع بعض التصورات للمسؤولية الجنائية، فيما يتعلق بكيانات وبرامج الذكاء الاصطناعي، ويمكن تلخيصها في التالي: الأول المسؤولية لارتكاب الجريمة بواسطة شخص آخر، و ستكون التهمة موجهة للمنتج أو المبرمج أو المستخدم النهائي. الثاني: المسؤولية المحتملة والعواقب غير المتوقعة، وهنا يستبعد المبرمج أو العنصر البشري من تحمل المسؤولية، لعدم تورطه ويتم إرجاع السبب إلى خلل بالطريقة التي كان يجب أن يفكر بها الكيان. الثالث: المسؤولية المباشرة، ويتم إلحاق المسؤولية مباشرة ً بكيان الذكاء الاصطناعي، كما يتم تحميلها للأفراد عادة، وقد لاقت الكثير من النقد، مفاده أن كيانات الذكاء الاصطناعي تعتبر غير قادرة على تحمل المسؤولية كاملة، بسبب عجزها، مثل الأطفال والمجانين ومن في حكمهم. ما زالت أنظمتنا القانونية لا تسد الحاجة لضبط أخطاء هذا النوع من الجرائم العصرية، بل يمكننا القول بأننا نفتقر له وبشدة. فمثلا الروبورت أو البرامج التي تعمل بتقنية الذكاء الاصطناعي، لايمكن معاقبتها «إذا كنا سنستخدم التصور الأخير» بالسجن أو الغرامة، أو الإنذار أواللوم، فهذا النوع من العقوبات يعتمد على أسلوب الردع والكف، القائم على عدد من المشاعر الإنسانية، مثل الخوف والشعور بالعار والذنب، وقليل من تقييد الحريات التي تتسبب بالمعاناة أحيانا. وجميع ذلك مما لا يؤثر نهائيا في كيانات الذكاء الاصطناعي، لذلك مما هو متوقع استحداث عقوبات جديدة، تتناسب مع نوع الجرائم العصرية الجديدة، كإنهاء خدمة، تعطيل جزء أو إعادة هيكلة وبرمجة. قد يجد البعض بأن هذا النوع من العقوبات غير شاف وغير كاف، مقارنة بما سيتسبب به هذا النوع من الكيانات. نسعى ونأمل التركيز على إدراج أنظمة وقوانين، تحفظ وتضمن الهيكل العام للمجتمع المعاصر بكل مرافقه، وحفظ الحقوق وإضفاء الشعور بالأمان للفرد في بيئته.