requestLLM abstract method
请求LLM
方法成功调用后,房间内的成员可以接收到来自LLM的响应。
使用前提
请先通过B端接口让AI入会。
调用时机
请在引擎初始化之后,且在加入房间后调用。
参数说明
dstUid - AI在会中的uid,默认可以写0,sdk会自动查找。
params - LLM请求参数
- taskId: 任务ID
- mediaContent: 请求LLM的图片数据(base64编码 格式:data:image/{format};base64,{base64_image})
- url: 请求LLM的url地址
- text: 请求LLM的文本描述
- interruptMode: 传入文本信息或外部问题时,处理的优先级 默认1。1:高优先级。传入信息直接打断交互, 进行处理。2:中优先级。等待当前交互结束后,进行处理。3:低优先级。如当前正在发生交互,直接丢弃。
返回值
返回 Future
- taskId: 任务ID
- code: 错误码,0表示成功
- errorMsg: 错误信息
示例代码
var params = NERtcLLMRequestParams("123456")
..text = "今天天气怎么样"
..interruptMode = 1;
NERtcLLMRequestResult result = await NERtcEngine.instance.requestLLM(0, params);
if (result.code == 0) {
print("LLM请求成功,taskId: ${result.taskId}");
} else {
print("LLM请求失败,code: ${result.code}, errorMsg: ${result.errorMsg}");
}
@since V5.9.20
Implementation
Future<NERtcLLMRequestResult> requestLLM(
int dstUid, NERtcLLMRequestParams params);