Softbank ทุ่มเงิน 960 ล้านดอลลาร์สหรัฐฯ พัฒนาโครงสร้างพื้นฐานด้านคอมพิวเตอร์เพื่อพัฒนาธุรกิจบริการ AI

อัปเดต: 23 เมษายน 2024 คีย์เวิร์ด:27aเป็นมิตรกับสิ่งแวดล้อมeliclt

Softbank กล่าวว่าจะเพิ่มการใช้จ่ายด้านโครงสร้างพื้นฐานด้านคอมพิวเตอร์จาก 130 ล้านดอลลาร์ในปีที่แล้วเป็น  960 ล้านเหรียญสหรัฐในช่วงปี 2024-25 เพื่อให้บริษัทมีขีดความสามารถชั้นนำในด้าน AI รายงาน Nikkei

เมื่อปีที่แล้ว SoftBank ได้จัดตั้งแผนกใหม่ ซึ่งปัจจุบันได้รับการเลื่อนตำแหน่งให้เป็นบริษัทย่อยชื่อ SB Intuitions

กล่าวกันว่า SB Intuitions กำลังพัฒนาโมเดลภาษาขนาดใหญ่ (LLM) โดยมีพารามิเตอร์ 390 พันล้านพารามิเตอร์สำหรับการจัดส่งในปีงบประมาณ 2024 GPT-3 ของ Open-AI มี  175 พันล้านพารามิเตอร์

พารามิเตอร์ หมายถึง ตัวแปร เช่น ปัจจัยที่มีอิทธิพลต่อการอนุมานจาก LLM ยิ่งใส่ตัวแปรลงในส่วนผสมมากเท่าใด ความแม่นยำของการอนุมานก็จะยิ่งมากขึ้นเท่านั้น หรือนั่นคือทฤษฎีนั่นเอง

ปีหน้า SB Intuitions กล่าวกันว่าจะเริ่ม LLM ด้วยพารามิเตอร์ 1 ล้านล้านพารามิเตอร์  – GPT-4 ของ OpenAI กล่าวกันว่ามีพารามิเตอร์ 100 ล้านล้านพารามิเตอร์

นอกจากนี้ SoftBank ตั้งใจที่จะสร้างศูนย์ข้อมูลทั่วประเทศญี่ปุ่น ซึ่งจะใช้เพื่อให้บริการตาม LLM ที่พัฒนาขึ้นภายในองค์กรแก่ลูกค้า