無羽

無羽 - 無伺服器LLM

無羽 - 最新的LLM模型,無伺服器並隨時準備使用。

Screenshot for 無羽 - 無伺服器LLM

    無羽 介紹

    無羽是一個AI模型提供者,提供基於訂閱的方式來訪問Hugging Face上的各種大型語言模型(LLMs)。它提供了一個無伺服器平台,用戶可以通過OpenAI兼容的API與這些模型進行交互。無羽專注於提供具有高推理速度的高性價比的強大LLMs,包括LLaMA-3和QWEN-2,並且使用FP8量化。他們通過不記錄任何用戶交互來優先考慮用戶隱私。無羽還支持並貢獻於開源AI開發,其中一部分收入將用於訓練和擴展多語言和可負擔的模型。

    無羽 使用案例

    1. 訪問和嘗試各種LLMs

    2. 使用OpenAI兼容的API開發基於AI的應用程序

    3. 在不需要昂貴硬件的情況下運行個人項目的AI模型

    4. 利用LLMs進行文本生成、聊天機器人和代碼生成等任務

    無羽 的核心功能

    1. 無限個人使用*

    2. 不斷增長的社區模型列表,每週更新

    3. 完全兼容OpenAI的API訪問

    4. 訪問高達15B模型(基本版)/ 72B模型(高級版)

    5. 私密、安全和匿名使用 - 不記錄日誌

    無羽 常見問題

    • 無羽是什麼?

      無羽是一個AI模型提供者,為我們的訂閱者提供不斷擴展的Hugging Face模型庫。 無羽:少麻煩,少努力。立即開始。

    • 費用是多少?

      我們提供兩種價格計劃,每月10美元和25美元。 如果並發限制對於真正的個人使用來說太限制,請通過我們的<a>discord</a>與我們聯繫。

    • 我的日誌被存儲嗎?

      不,作為一個注重隱私的服務,我們不會記錄您的任何聊天、提示或完成內容。

    • 支持哪種模型架構?

      目前,我們支持基於LLaMA-3的模型,包括LLaMA-3和QWEN-2。 請注意,QWEN-2模型僅支持最多16,000個上下文長度。 我們計劃很快將更多架構添加到我們的支持列表中。

    • 如何添加新模型?

      在我們的<a>discord</a>上聯繫我們。 我們會不斷添加新模型,使其與可兼容架構的Hugging Face上的所有公開可用模型相適應,隨著我們的發展,我們的目標是自動化這一過程。

    • 無限有多無限?

      只要您保持訂閱狀態,模型使用沒有時間限制。 為了確保公平的個人帳戶使用,同時請求根據您選擇的計劃進行限制。 輸出速度為每秒10-40個標記,具體取決於模型和提示大小。

    • 如何聯繫你們?

      加入我們的<a>discord</a>或在<a>r/SillyTavernAI</a>找到我們

    • 你們運行量化模型嗎?

      是的,我們使用FP8量化。 在與社區協商後,我們發現這種方法在顯著提高推理速度的同時保持輸出質量。

    • 你們是如何運行這麼多模型的?

      在平台的核心是我們的自定義推理堆棧,我們可以動態地運行多個模型。

    使用無羽的用戶

    • AI開發人員

    • 研究人員

    • 愛好者

    • 尋找價格實惠且易於訪問的LLM解決方案的個人和企業