requestLLM abstract method

Future<NERtcLLMRequestResult> requestLLM(
  1. int dstUid,
  2. NERtcLLMRequestParams params
)

请求LLM

方法成功调用后,房间内的成员可以接收到来自LLM的响应。

使用前提

请先通过B端接口让AI入会。

调用时机

请在引擎初始化之后,且在加入房间后调用。

参数说明

dstUid - AI在会中的uid,默认可以写0,sdk会自动查找。

params - LLM请求参数

  • taskId: 任务ID
  • mediaContent: 请求LLM的图片数据(base64编码 格式:data:image/{format};base64,{base64_image})
  • url: 请求LLM的url地址
  • text: 请求LLM的文本描述
  • interruptMode: 传入文本信息或外部问题时,处理的优先级 默认1。1:高优先级。传入信息直接打断交互, 进行处理。2:中优先级。等待当前交互结束后,进行处理。3:低优先级。如当前正在发生交互,直接丢弃。

返回值

返回 Future

  • taskId: 任务ID
  • code: 错误码,0表示成功
  • errorMsg: 错误信息

示例代码

var params = NERtcLLMRequestParams("123456")
  ..text = "今天天气怎么样"
  ..interruptMode = 1;

NERtcLLMRequestResult result = await NERtcEngine.instance.requestLLM(0, params);
if (result.code == 0) {
  print("LLM请求成功,taskId: ${result.taskId}");
} else {
  print("LLM请求失败,code: ${result.code}, errorMsg: ${result.errorMsg}");
}

@since V5.9.20

Implementation

Future<NERtcLLMRequestResult> requestLLM(
    int dstUid, NERtcLLMRequestParams params);