LLMs
BaseRagasLLM dataclass
BaseRagasLLM(run_config: RunConfig = RunConfig(), multiple_completion_supported: bool = False, cache: Optional[CacheInterface] = None)
基础: ABC
get_temperature
generate async
generate(prompt: PromptValue, n: int = 1, temperature: Optional[float] = None, stop: Optional[List[str]] = None, callbacks: Callbacks = None) -> LLMResult
使用给定的事件循环生成文本。
源代码位于 src/ragas/llms/base.py
LangchainLLMWrapper
LangchainLLMWrapper(langchain_llm: BaseLanguageModel[BaseMessage], run_config: Optional[RunConfig] = None, is_finished_parser: Optional[Callable[[LLMResult], bool]] = None, cache: Optional[CacheInterface] = None)
基础: BaseRagasLLM
一个简单的 RagasLLMs 基类,基于 Langchain 的 BaseLanguageModel 接口。它实现了两个函数: - generate_text: 从给定的 PromptValue 生成文本 - agenerate_text: 从给定的 PromptValue 异步生成文本
源代码位于 src/ragas/llms/base.py
is_finished
解析响应以检查 LLM 是否已完成,通过检查 finish_reason 或 stop_reason。支持 OpenAI 和 Vertex AI 模型。
源代码位于 src/ragas/llms/base.py
LlamaIndexLLMWrapper
LlamaIndexLLMWrapper(llm: BaseLLM, run_config: Optional[RunConfig] = None, cache: Optional[CacheInterface] = None)
基础: BaseRagasLLM
LlamaIndex 大型语言模型的适配器
源代码位于 src/ragas/llms/base.py
HaystackLLMWrapper
HaystackLLMWrapper(haystack_generator: Any, run_config: Optional[RunConfig] = None, cache: Optional[CacheInterface] = None)
基础: BaseRagasLLM
一个包装类,用于在 Ragas 框架内使用 Haystack LLM 生成器。
此类将 Haystack 的 LLM 组件(例如,OpenAIGenerator
、HuggingFaceAPIGenerator
等)集成到 Ragas 中,实现同步和异步文本生成。
参数
名称 | 类型 | 描述 | 默认 |
---|---|---|---|
haystack_generator
|
AzureOpenAIGenerator | HuggingFaceAPIGenerator | HuggingFaceLocalGenerator | OpenAIGenerator
|
Haystack 生成器的实例。 |
必需 |
run_config
|
运行配置
|
用于管理 LLM 执行设置的配置对象,默认为 None。 |
None
|
cache
|
CacheInterface
|
用于存储结果的缓存实例,默认为 None。 |
None
|
源代码位于 src/ragas/llms/haystack_wrapper.py
llm_factory
llm_factory(model: str = 'gpt-4o-mini', run_config: Optional[RunConfig] = None, default_headers: Optional[Dict[str, str]] = None, base_url: Optional[str] = None) -> BaseRagasLLM
创建并返回一个 BaseRagasLLM 实例。用于运行 Ragas 中使用的默认大型语言模型 (OpenAI)。
参数
名称 | 类型 | 描述 | 默认 |
---|---|---|---|
model
|
str
|
要使用的模型名称,默认为 "gpt-4o-mini"。 |
'gpt-4o-mini'
|
run_config
|
运行配置
|
运行的配置,默认为 None。 |
None
|
default_headers
|
dict of str
|
在 API 请求中使用的默认头部,默认为 None。 |
None
|
base_url
|
str
|
API 的基础 URL,默认为 None。 |
None
|
返回
类型 | 描述 |
---|---|
BaseRagasLLM
|
使用指定参数配置的 BaseRagasLLM 实例。 |