شات جي بي تي يكلف أصحابه ملايين الدولارات.. ما السبب؟


 تشغيل ChatGPT يُكلّف شركة OpenAI ملايين الدولارات يوميًا، ويرجع ذلك إلى عدة عوامل تقنية ومالية معقدة.

1. البنية التحتية المكلفة

تعتمد ChatGPT على بنية تحتية ضخمة تتضمن آلاف وحدات معالجة الرسوميات (GPUs) من نوع NVIDIA، مثل A100 وH100، والتي تُستخدم في مراكز بيانات متخصصة. تُقدّر تكلفة تشغيل هذه البنية بحوالي 700,000 دولار يوميًا، وقد تصل إلى مليون دولار يوميًا وفقًا لبعض التقديرات، وذلك بسبب استهلاك الطاقة العالي وتكاليف التبريد والصيانة.

2. استهلاك الطاقة والموارد البيئية

كل تفاعل مع ChatGPT يتطلب طاقة كهربائية كبيرة لتشغيل الخوادم وتبريدها. على سبيل المثال، تشير التقديرات إلى أن سلسلة من الطلبات قد تستهلك حوالي 0.5 لتر من الماء لتبريد الخوادم. هذا الاستهلاك الكبير للطاقة والموارد يُضيف إلى التكاليف التشغيلية اليومية.

3. تكاليف التدريب والصيانة

تدريب نماذج اللغة الكبيرة مثل GPT-4 يتطلب موارد ضخمة، بما في ذلك الوقت والطاقة البشرية. تشير بعض الدراسات إلى أن تكلفة تدريب هذه النماذج قد تصل إلى مئات الملايين من الدولارات، مع توقعات بزيادة هذه التكاليف في المستقبل.

4. التفاعل البشري والردود المهذبة

حتى الردود البسيطة مثل "شكرًا" و"من فضلك" تُضيف إلى التكاليف، حيث تتطلب معالجة إضافية من النموذج، مما يزيد من استهلاك الموارد. يُقدّر أن هذه التفاعلات قد تُكلّف الشركة عشرات الملايين من الدولارات سنويًا.

5. الاشتراكات المدفوعة لا تغطي التكاليف

على الرغم من تقديم OpenAI لخدمة ChatGPT Plus بسعر 20 دولارًا شهريًا، إلا أن الشركة تخسر المال على هذه الاشتراكات بسبب الاستخدام المكثف من قبل المستخدمين والتكاليف التشغيلية العالية.

6. محاولات تقليل التكاليف

تسعى OpenAI وشريكتها Microsoft إلى تقليل التكاليف من خلال تطوير شرائح ذكاء اصطناعي خاصة بها، مثل شريحة "Athena"، لتقليل الاعتماد على شرائح NVIDIA المكلفة.

باختصار، تُعزى التكاليف العالية لتشغيل ChatGPT إلى البنية التحتية المكلفة، استهلاك الطاقة، تكاليف التدريب، والتفاعلات البشرية، مما يجعل من الصعب تحقيق الربحية في الوقت الحالي.

Post a Comment

أحدث أقدم