التخطي إلى المحتوى

هكذا تتحكم الصين فى استخدام الأشخاص والشركات للذكاء الاصطناعى

أصبح الذكاء الاصطناعي أكثر من مجرد كلمة طنانة، فهو ينتشر ببطء في جميع أنحاء العالم في مجال التكنولوجيا، وفي حين أن فوائد الذكاء الاصطناعي كبيرة، إلا أن مخاطره كبيرة أيضًا، لذلك تخطط الصين لفرض قيود صارمة على كيفية عمل الذكاء الاصطناعي. ويمكن الاستفادة منها، بحسب ما جاء في بيان نشرته الصحيفة. وفقًا لتقرير نشرته صحيفة South China Morning Post، تحاول السلطات الصينية الموازنة بين فوائد ومخاطر الذكاء الاصطناعي.

نشرت الصين مسودة مبادئ توجيهية جديدة وتهدف إلى تحسين جانبين: أولا، كيفية استخدام بيانات التدريب وما إذا كانت آمنة، وأمن نماذج اللغات الكبيرة المستخدمة في تقنيات الذكاء الاصطناعي التوليدية مثل ChatGPT أو Baidu. إرني بوت.

ما تريد الصين أن تفعله

تريد السلطات الصينية التأكد من أن أي بيانات تستخدم لتدريب نماذج الذكاء الاصطناعي لا تنتهك أي حقوق نشر أو تنتهك البيانات الشخصية، ووفقًا للتقرير، يجب “معالجة” جميع التدريبات المقدمة على دايا. يجب على المراجعين المعتمدين اجتياز فحوصات الأمان أولاً.

بمعنى آخر، يجب أن تتم مراجعة البيانات من قبل الإنسان قبل أن يتم إنشاؤها بشكل مصطنع، وعندما يبني المطورون برامج LLM الخاصة بهم، “يجب عليهم الاعتماد على النماذج الأساسية التي يتم توفيرها وترخيصها للسلطات”، ومرة ​​أخرى، يتم استخدام المدخلات لهذه النماذج في الذكاء الاصطناعي التوليدي معرفة السلطات بالمعلومات.

لا يوجد “محتوى غير قانوني”.

تعريف الصين للمحتوى غير القانوني واسع جدًا ويتضمن معلومات حساسة سياسيًا. على سبيل المثال، تعتبر الأسئلة المتعلقة بتايوان محتوى غير قانوني. بالإضافة إلى ذلك، تعتبر الأخبار المزيفة أو الترويج للأساطير أو المحتوى الإباحي أيضًا محتوى غير قانوني.

وتريد مسودة الاقتراح حظر جميع بيانات تدريب الذكاء الاصطناعي التي تحتوي على “محتوى غير قانوني بنسبة 5%”، حيث تعتبر البيانات خطيرة بموجب قوانين الأمن السيبراني الصينية. وقد قدمت الصين مسودة اقتراح وتسعى للحصول على تعليقات عامة بحلول 25 أكتوبر. .

هكذا تتحكم الصين فى استخدام الأشخاص والشركات للذكاء الاصطناعى

مصدر الخبر