挑戰
在快速且準確地產生正確反應方面,大型語言模型 (LLM) 是真正的強大力量。然而,缺乏深入的、特定領域的知識,而這些知識可以在某些用例中發揮重要作用。此外,我們不要忘記開發和部署它們所需的大量運算資源和專業知識。
這就是小語言模式 (SLM)越來越成為特定任務的首選。憑藉更集中的方法,SLM比 LLM 更高效,並且計算佔用空間更小。因此,它們更適合在工作站或本地伺服器上本地運行。

解決方案
Bezoku 是一類自己的人工智慧技術,它是圍繞人類構建的,具有許多安全功能,可以在方言偏見和認知自由等問題上保護用戶。為了實現這一目標,私有資料的端對端加密正在為使用高級數學的生成人工智慧提供首個此類系統。
Bezoku 是為使用所謂的「低資源語言」的社群而設計的。他們從海地克里奧爾語開始,但很快就會跟進一些西班牙方言(例如古巴語、宏都拉斯語),並將促進雙語使用者的語言能力,稱為代碼轉換。 Bezoku 的小語言模型 (SML) 方法每個模型所需的計算量比 ChatGPT4 少 5,300 倍。因此,別族的污染大大減少,對地球的影響也小得多。