Documentation ¶
Index ¶
- Constants
- type Client
- func (c *Client) InitOralProcess(request *InitOralProcessRequest) (response *InitOralProcessResponse, err error)
- func (c *Client) KeywordEvaluate(request *KeywordEvaluateRequest) (response *KeywordEvaluateResponse, err error)
- func (c *Client) TransmitOralProcess(request *TransmitOralProcessRequest) (response *TransmitOralProcessResponse, err error)
- func (c *Client) TransmitOralProcessWithInit(request *TransmitOralProcessWithInitRequest) (response *TransmitOralProcessWithInitResponse, err error)
- type InitOralProcessRequest
- type InitOralProcessResponse
- type Keyword
- type KeywordEvaluateRequest
- type KeywordEvaluateResponse
- type KeywordScore
- type PhoneInfo
- type SentenceInfo
- type TransmitOralProcessRequest
- type TransmitOralProcessResponse
- type TransmitOralProcessWithInitRequest
- type TransmitOralProcessWithInitResponse
- type WordRsp
Constants ¶
View Source
const APIVersion = "2018-07-24"
Variables ¶
This section is empty.
Functions ¶
This section is empty.
Types ¶
type Client ¶
func NewClient ¶
func NewClient(credential *common.Credential, region string, clientProfile *profile.ClientProfile) (client *Client, err error)
func NewClientWithSecretId ¶
Deprecated
func (*Client) InitOralProcess ¶
func (c *Client) InitOralProcess(request *InitOralProcessRequest) (response *InitOralProcessResponse, err error)
初始化发音评估过程,每一轮评估前进行调用。语音输入模式分为流式模式和非流式模式,流式模式支持数据分片传输,可以加快评估响应速度。评估模式分为词模式和句子模式,词模式会标注每个音节的详细信息;句子模式会有完整度和流利度的评估。
func (*Client) KeywordEvaluate ¶
func (c *Client) KeywordEvaluate(request *KeywordEvaluateRequest) (response *KeywordEvaluateResponse, err error)
指定主题关键词词汇评估,分析语音与关键词的切合程度,可指定多个关键词,支持中文英文同时评测。分片传输时,尽量保证纯异步调用,即不等待上一个分片的传输结果边录边传,这样可以尽可能早的提供音频数据。音频源目前仅支持16k采样率16bit单声道编码方式,如有不一致可能导致评估不准确或失败。
func (*Client) TransmitOralProcess ¶
func (c *Client) TransmitOralProcess(request *TransmitOralProcessRequest) (response *TransmitOralProcessResponse, err error)
传输音频数据,必须在完成发音评估初始化接口之后调用,且SessonId要与初始化接口保持一致。分片传输时,尽量保证SeqId顺序传输。音频源目前仅支持16k采样率16bit单声道编码方式,如有不一致可能导致评估不准确或失败。
func (*Client) TransmitOralProcessWithInit ¶
func (c *Client) TransmitOralProcessWithInit(request *TransmitOralProcessWithInitRequest) (response *TransmitOralProcessWithInitResponse, err error)
初始化并传输音频数据,分片传输时,尽量保证SeqId顺序传输。音频源目前仅支持16k采样率16bit单声道编码方式,如有不一致可能导致评估不准确或失败。
type InitOralProcessRequest ¶
type InitOralProcessRequest struct { *tchttp.BaseRequest // 语音段唯一标识,一段语音一个SessionId SessionId *string `json:"SessionId,omitempty" name:"SessionId"` // 被评估语音对应的文本,句子模式下不超过个 20 单词或者中文文字,段落模式不超过 120 单词或者中文文字,中文评估使用 utf-8 编码,自由说模式该值传空。如需要在单词模式和句子模式下使用自定义音素,可以通过设置 TextMode 使用[音素标注](https://cloud.tencent.com/document/product/884/33698)。 RefText *string `json:"RefText,omitempty" name:"RefText"` // 语音输入模式,0:流式分片,1:非流式一次性评估 WorkMode *int64 `json:"WorkMode,omitempty" name:"WorkMode"` // 评估模式,0:词模式(中文评测模式下为文字模式),1:句子模式,2:段落模式,3:自由说模式,当为词模式评估时,能够提供每个音节的评估信息,当为句子模式时,能够提供完整度和流利度信息。4: 英文单词音素诊断评测模式,针对一个单词音素诊断评测。 EvalMode *int64 `json:"EvalMode,omitempty" name:"EvalMode"` // 评价苛刻指数,取值为[1.0 - 4.0]范围内的浮点数,用于平滑不同年龄段的分数,1.0为小年龄段,4.0为最高年龄段 ScoreCoeff *float64 `json:"ScoreCoeff,omitempty" name:"ScoreCoeff"` // 业务应用ID,与账号应用APPID无关,是用来方便客户管理服务的参数,新的 SoeAppId 可以在[控制台](https://console.cloud.tencent.com/soe)【应用管理】下新建。 SoeAppId *string `json:"SoeAppId,omitempty" name:"SoeAppId"` // 长效session标识,当该参数为1时,session的持续时间为300s,但会一定程度上影响第一个数据包的返回速度,且TransmitOralProcess必须同时为1才可生效。 IsLongLifeSession *int64 `json:"IsLongLifeSession,omitempty" name:"IsLongLifeSession"` // 音频存储模式,0:不存储,1:存储到公共对象存储,输出结果为该会话最后一个分片TransmitOralProcess 返回结果 AudioUrl 字段,2:永久存储音频,需要提工单申请,会产生一定存储费用,3:自定义存储,将音频存储到自定义的腾讯云[对象存储](https://cloud.tencent.com/product/cos)中,需要提工单登记存储信息。 StorageMode *int64 `json:"StorageMode,omitempty" name:"StorageMode"` // 输出断句中间结果标识,0:不输出,1:输出,通过设置该参数,可以在评估过程中的分片传输请求中,返回已经评估断句的中间结果,中间结果可用于客户端 UI 更新,输出结果为TransmitOralProcess请求返回结果 SentenceInfoSet 字段。 SentenceInfoEnabled *int64 `json:"SentenceInfoEnabled,omitempty" name:"SentenceInfoEnabled"` // 评估语言,0:英文,1:中文。 ServerType *int64 `json:"ServerType,omitempty" name:"ServerType"` // 异步模式标识,0:同步模式,1:异步模式,可选值参考[服务模式](https://cloud.tencent.com/document/product/884/33697)。 IsAsync *int64 `json:"IsAsync,omitempty" name:"IsAsync"` // 输入文本模式,0: 普通文本,1:[音素结构](https://cloud.tencent.com/document/product/884/33698)文本。2:音素注册模式(提工单注册需要使用音素的单词)。 TextMode *int64 `json:"TextMode,omitempty" name:"TextMode"` }
func NewInitOralProcessRequest ¶
func NewInitOralProcessRequest() (request *InitOralProcessRequest)
func (*InitOralProcessRequest) FromJsonString ¶
func (r *InitOralProcessRequest) FromJsonString(s string) error
func (*InitOralProcessRequest) ToJsonString ¶
func (r *InitOralProcessRequest) ToJsonString() string
type InitOralProcessResponse ¶
type InitOralProcessResponse struct { *tchttp.BaseResponse Response *struct { // 语音段唯一标识,一个完整语音一个SessionId SessionId *string `json:"SessionId,omitempty" name:"SessionId"` // 唯一请求 ID,每次请求都会返回。定位问题时需要提供该次请求的 RequestId。 RequestId *string `json:"RequestId,omitempty" name:"RequestId"` } `json:"Response"` }
func NewInitOralProcessResponse ¶
func NewInitOralProcessResponse() (response *InitOralProcessResponse)
func (*InitOralProcessResponse) FromJsonString ¶
func (r *InitOralProcessResponse) FromJsonString(s string) error
func (*InitOralProcessResponse) ToJsonString ¶
func (r *InitOralProcessResponse) ToJsonString() string
type Keyword ¶
type Keyword struct { // 被评估语音对应的文本,句子模式下不超过个 20 单词或者中文文字,段落模式不超过 120 单词或者中文文字,中文评估使用 utf-8 编码,自由说模式该值无效。如需要在单词模式和句子模式下使用自定义音素,可以通过设置 TextMode 使用[音素标注](https://cloud.tencent.com/document/product/884/33698)。 RefText *string `json:"RefText,omitempty" name:"RefText"` // 评估模式,0:词模式(中文评测模式下为文字模式),1:句子模式,2:段落模式,3:自由说模式,当为词模式评估时,能够提供每个音节的评估信息,当为句子模式时,能够提供完整度和流利度信息。 EvalMode *uint64 `json:"EvalMode,omitempty" name:"EvalMode"` // 评价苛刻指数,取值为[1.0 - 4.0]范围内的浮点数,用于平滑不同年龄段的分数,1.0为小年龄段,4.0为最高年龄段 ScoreCoeff *float64 `json:"ScoreCoeff,omitempty" name:"ScoreCoeff"` // 评估语言,0:英文,1:中文。 ServerType *uint64 `json:"ServerType,omitempty" name:"ServerType"` // 输入文本模式,0: 普通文本,1:[音素结构](https://cloud.tencent.com/document/product/884/33698)文本。 TextMode *uint64 `json:"TextMode,omitempty" name:"TextMode"` }
type KeywordEvaluateRequest ¶
type KeywordEvaluateRequest struct { *tchttp.BaseRequest // 流式数据包的序号,从1开始,当IsEnd字段为1后后续序号无意义,当IsLongLifeSession不为1且为非流式模式时无意义。 SeqId *uint64 `json:"SeqId,omitempty" name:"SeqId"` // 是否传输完毕标志,若为0表示未完毕,若为1则传输完毕开始评估,非流式模式下无意义。 IsEnd *uint64 `json:"IsEnd,omitempty" name:"IsEnd"` // 语音文件类型 1: raw, 2: wav, 3: mp3, 4: speex (语言文件格式目前仅支持 16k 采样率 16bit 编码单声道,如有不一致可能导致评估不准确或失败)。 VoiceFileType *uint64 `json:"VoiceFileType,omitempty" name:"VoiceFileType"` // 语音编码类型 1:pcm。 VoiceEncodeType *uint64 `json:"VoiceEncodeType,omitempty" name:"VoiceEncodeType"` // 当前数据包数据, 流式模式下数据包大小可以按需设置,在网络良好的情况下,建议设置为0.5k,且必须保证分片帧完整(16bit的数据必须保证音频长度为偶数),编码格式要求为BASE64。 UserVoiceData *string `json:"UserVoiceData,omitempty" name:"UserVoiceData"` // 语音段唯一标识,一个完整语音一个SessionId。 SessionId *string `json:"SessionId,omitempty" name:"SessionId"` // 关键词列表 Keywords []*Keyword `json:"Keywords,omitempty" name:"Keywords" list` // 业务应用ID,与账号应用APPID无关,是用来方便客户管理服务的参数,新的 SoeAppId 可以在[控制台](https://console.cloud.tencent.com/soe)【应用管理】下新建。 SoeAppId *string `json:"SoeAppId,omitempty" name:"SoeAppId"` // 查询标识,当该参数为1时,该请求为查询请求,请求返回该 Session 评估结果。 IsQuery *uint64 `json:"IsQuery,omitempty" name:"IsQuery"` }
func NewKeywordEvaluateRequest ¶
func NewKeywordEvaluateRequest() (request *KeywordEvaluateRequest)
func (*KeywordEvaluateRequest) FromJsonString ¶
func (r *KeywordEvaluateRequest) FromJsonString(s string) error
func (*KeywordEvaluateRequest) ToJsonString ¶
func (r *KeywordEvaluateRequest) ToJsonString() string
type KeywordEvaluateResponse ¶
type KeywordEvaluateResponse struct { *tchttp.BaseResponse Response *struct { // 关键词得分 KeywordScores []*KeywordScore `json:"KeywordScores,omitempty" name:"KeywordScores" list` // 语音段唯一标识,一段语音一个SessionId SessionId *string `json:"SessionId,omitempty" name:"SessionId"` // 唯一请求 ID,每次请求都会返回。定位问题时需要提供该次请求的 RequestId。 RequestId *string `json:"RequestId,omitempty" name:"RequestId"` } `json:"Response"` }
func NewKeywordEvaluateResponse ¶
func NewKeywordEvaluateResponse() (response *KeywordEvaluateResponse)
func (*KeywordEvaluateResponse) FromJsonString ¶
func (r *KeywordEvaluateResponse) FromJsonString(s string) error
func (*KeywordEvaluateResponse) ToJsonString ¶
func (r *KeywordEvaluateResponse) ToJsonString() string
type KeywordScore ¶
type KeywordScore struct { // 关键词 Keyword *string `json:"Keyword,omitempty" name:"Keyword"` // 发音精准度,取值范围[-1, 100],当取-1时指完全不匹配,当为句子模式时,是所有已识别单词准确度的加权平均值,在reftext中但未识别出来的词不计入分数中。当为流式模式且请求中IsEnd未置1时,取值无意义。 PronAccuracy *float64 `json:"PronAccuracy,omitempty" name:"PronAccuracy"` // 发音流利度,取值范围[0, 1],当为词模式时,取值无意义;当为流式模式且请求中IsEnd未置1时,取值无意义 PronFluency *float64 `json:"PronFluency,omitempty" name:"PronFluency"` // 发音完整度,取值范围[0, 1],当为词模式时,取值无意义;当为流式模式且请求中IsEnd未置1时,取值无意义 PronCompletion *float64 `json:"PronCompletion,omitempty" name:"PronCompletion"` // 详细发音评估结果 // 注意:此字段可能返回 null,表示取不到有效值。 Words []*WordRsp `json:"Words,omitempty" name:"Words" list` // 建议评分,取值范围[0,100],评分方式为建议评分 = 准确度(PronAccuracyfloat)× 完整度(PronCompletionfloat)×(2 - 完整度(PronCompletionfloat)),如若评分策略不符合请参考Words数组中的详细分数自定义评分逻辑。 SuggestedScore *float64 `json:"SuggestedScore,omitempty" name:"SuggestedScore"` }
type PhoneInfo ¶
type PhoneInfo struct { // 当前音节语音起始时间点,单位为ms MemBeginTime *int64 `json:"MemBeginTime,omitempty" name:"MemBeginTime"` // 当前音节语音终止时间点,单位为ms MemEndTime *int64 `json:"MemEndTime,omitempty" name:"MemEndTime"` // 音节发音准确度,取值范围[-1, 100],当取-1时指完全不匹配 PronAccuracy *float64 `json:"PronAccuracy,omitempty" name:"PronAccuracy"` // 当前音节是否检测为重音 DetectedStress *bool `json:"DetectedStress,omitempty" name:"DetectedStress"` // 当前音节 Phone *string `json:"Phone,omitempty" name:"Phone"` // 当前音节是否应为重音 Stress *bool `json:"Stress,omitempty" name:"Stress"` // 参考音素,在单词诊断模式下,代表标准音素 ReferencePhone *string `json:"ReferencePhone,omitempty" name:"ReferencePhone"` // 当前词与输入语句的匹配情况,0:匹配单词、1:新增单词、2:缺少单词、3:错读的词、4:未录入单词。 MatchTag *int64 `json:"MatchTag,omitempty" name:"MatchTag"` }
type SentenceInfo ¶
type SentenceInfo struct { // 句子序号,在段落、自由说模式下有效,表示断句序号,最后的综合结果的为-1. SentenceId *int64 `json:"SentenceId,omitempty" name:"SentenceId"` // 详细发音评估结果 Words []*WordRsp `json:"Words,omitempty" name:"Words" list` // 发音精准度,取值范围[-1, 100],当取-1时指完全不匹配,当为句子模式时,是所有已识别单词准确度的加权平均值,在reftext中但未识别出来的词不计入分数中。 PronAccuracy *float64 `json:"PronAccuracy,omitempty" name:"PronAccuracy"` // 发音流利度,取值范围[0, 1],当为词模式时,取值无意义;当为流式模式且请求中IsEnd未置1时,取值无意义 PronFluency *float64 `json:"PronFluency,omitempty" name:"PronFluency"` // 发音完整度,取值范围[0, 1],当为词模式时,取值无意义;当为流式模式且请求中IsEnd未置1时,取值无意义 PronCompletion *float64 `json:"PronCompletion,omitempty" name:"PronCompletion"` // 建议评分,取值范围[0,100],评分方式为建议评分 = 准确度(PronAccuracyfloat)* 完整度(PronCompletionfloat)*(2 - 完整度(PronCompletionfloat)),如若评分策略不符合请参考Words数组中的详细分数自定义评分逻辑。 SuggestedScore *float64 `json:"SuggestedScore,omitempty" name:"SuggestedScore"` }
type TransmitOralProcessRequest ¶
type TransmitOralProcessRequest struct { *tchttp.BaseRequest // 流式数据包的序号,从1开始,当IsEnd字段为1后后续序号无意义,当IsLongLifeSession不为1且为非流式模式时无意义。 SeqId *int64 `json:"SeqId,omitempty" name:"SeqId"` // 是否传输完毕标志,若为0表示未完毕,若为1则传输完毕开始评估,非流式模式下无意义。 IsEnd *int64 `json:"IsEnd,omitempty" name:"IsEnd"` // 语音文件类型 1:raw, 2:wav, 3:mp3(三种格式目前仅支持16k采样率16bit编码单声道,如有不一致可能导致评估不准确或失败)。 VoiceFileType *int64 `json:"VoiceFileType,omitempty" name:"VoiceFileType"` // 语音编码类型 1:pcm。 VoiceEncodeType *int64 `json:"VoiceEncodeType,omitempty" name:"VoiceEncodeType"` // 当前数据包数据, 流式模式下数据包大小可以按需设置,在网络稳定时,分片大小建议设置0.5k,且必须保证分片帧完整(16bit的数据必须保证音频长度为偶数),编码格式要求为BASE64。 UserVoiceData *string `json:"UserVoiceData,omitempty" name:"UserVoiceData"` // 语音段唯一标识,一个完整语音一个SessionId。 SessionId *string `json:"SessionId,omitempty" name:"SessionId"` // 业务应用ID,与账号应用APPID无关,是用来方便客户管理服务的参数,新的 SoeAppId 可以在[控制台](https://console.cloud.tencent.com/soe)【应用管理】下新建。 SoeAppId *string `json:"SoeAppId,omitempty" name:"SoeAppId"` // 长效session标识,当该参数为1时,session的持续时间为300s,但会一定程度上影响第一个数据包的返回速度。当InitOralProcess接口调用时此项为1时,此项必填1才可生效。 IsLongLifeSession *int64 `json:"IsLongLifeSession,omitempty" name:"IsLongLifeSession"` // 查询标识,当该参数为1时,该请求为查询请求,请求返回该 Session 的评估结果。 IsQuery *int64 `json:"IsQuery,omitempty" name:"IsQuery"` }
func NewTransmitOralProcessRequest ¶
func NewTransmitOralProcessRequest() (request *TransmitOralProcessRequest)
func (*TransmitOralProcessRequest) FromJsonString ¶
func (r *TransmitOralProcessRequest) FromJsonString(s string) error
func (*TransmitOralProcessRequest) ToJsonString ¶
func (r *TransmitOralProcessRequest) ToJsonString() string
type TransmitOralProcessResponse ¶
type TransmitOralProcessResponse struct { *tchttp.BaseResponse Response *struct { // 发音精准度,取值范围[-1, 100],当取-1时指完全不匹配,当为句子模式时,是所有已识别单词准确度的加权平均值,在reftext中但未识别出来的词不计入分数中。当为流式模式且请求中IsEnd未置1时,取值无意义。 PronAccuracy *float64 `json:"PronAccuracy,omitempty" name:"PronAccuracy"` // 发音流利度,取值范围[0, 1],当为词模式时,取值无意义;当为流式模式且请求中IsEnd未置1时,取值无意义 PronFluency *float64 `json:"PronFluency,omitempty" name:"PronFluency"` // 发音完整度,取值范围[0, 1],当为词模式时,取值无意义;当为流式模式且请求中IsEnd未置1时,取值无意义 PronCompletion *float64 `json:"PronCompletion,omitempty" name:"PronCompletion"` // 详细发音评估结果 Words []*WordRsp `json:"Words,omitempty" name:"Words" list` // 语音段唯一标识,一段语音一个SessionId SessionId *string `json:"SessionId,omitempty" name:"SessionId"` // 保存语音音频文件下载地址 AudioUrl *string `json:"AudioUrl,omitempty" name:"AudioUrl"` // 断句中间结果,中间结果是局部最优而非全局最优的结果,所以中间结果有可能和最终整体结果对应部分不一致;中间结果的输出便于客户端UI更新;待用户发音完全结束后,系统会给出一个综合所有句子的整体结果。 SentenceInfoSet []*SentenceInfo `json:"SentenceInfoSet,omitempty" name:"SentenceInfoSet" list` // 评估 session 状态,“Evaluating":评估中、"Failed":评估失败、"Finished":评估完成 Status *string `json:"Status,omitempty" name:"Status"` // 建议评分,取值范围[0,100],评分方式为建议评分 = 准确度(PronAccuracyfloat)× 完整度(PronCompletionfloat)×(2 - 完整度(PronCompletionfloat)),如若评分策略不符合请参考Words数组中的详细分数自定义评分逻辑。 SuggestedScore *float64 `json:"SuggestedScore,omitempty" name:"SuggestedScore"` // 唯一请求 ID,每次请求都会返回。定位问题时需要提供该次请求的 RequestId。 RequestId *string `json:"RequestId,omitempty" name:"RequestId"` } `json:"Response"` }
func NewTransmitOralProcessResponse ¶
func NewTransmitOralProcessResponse() (response *TransmitOralProcessResponse)
func (*TransmitOralProcessResponse) FromJsonString ¶
func (r *TransmitOralProcessResponse) FromJsonString(s string) error
func (*TransmitOralProcessResponse) ToJsonString ¶
func (r *TransmitOralProcessResponse) ToJsonString() string
type TransmitOralProcessWithInitRequest ¶
type TransmitOralProcessWithInitRequest struct { *tchttp.BaseRequest // 流式数据包的序号,从1开始,当IsEnd字段为1后后续序号无意义,当IsLongLifeSession不为1且为非流式模式时无意义。 SeqId *int64 `json:"SeqId,omitempty" name:"SeqId"` // 是否传输完毕标志,若为0表示未完毕,若为1则传输完毕开始评估,非流式模式下无意义。 IsEnd *int64 `json:"IsEnd,omitempty" name:"IsEnd"` // 语音文件类型 1: raw, 2: wav, 3: mp3, 4: speex (语言文件格式目前仅支持 16k 采样率 16bit 编码单声道,如有不一致可能导致评估不准确或失败)。 VoiceFileType *int64 `json:"VoiceFileType,omitempty" name:"VoiceFileType"` // 语音编码类型 1:pcm。 VoiceEncodeType *int64 `json:"VoiceEncodeType,omitempty" name:"VoiceEncodeType"` // 当前数据包数据, 流式模式下数据包大小可以按需设置,在网络良好的情况下,建议设置为0.5k,且必须保证分片帧完整(16bit的数据必须保证音频长度为偶数),编码格式要求为BASE64。 UserVoiceData *string `json:"UserVoiceData,omitempty" name:"UserVoiceData"` // 语音段唯一标识,一个完整语音一个SessionId。 SessionId *string `json:"SessionId,omitempty" name:"SessionId"` // 被评估语音对应的文本,句子模式下不超过个 20 单词或者中文文字,段落模式不超过 120 单词或者中文文字,中文评估使用 utf-8 编码,自由说模式该值无效。如需要在单词模式和句子模式下使用自定义音素,可以通过设置 TextMode 使用[音素标注](https://cloud.tencent.com/document/product/884/33698)。 RefText *string `json:"RefText,omitempty" name:"RefText"` // 语音输入模式,0:流式分片,1:非流式一次性评估 WorkMode *int64 `json:"WorkMode,omitempty" name:"WorkMode"` // 评估模式,0:词模式(中文评测模式下为文字模式),1:句子模式,2:段落模式,3:自由说模式,当为词模式评估时,能够提供每个音节的评估信息,当为句子模式时,能够提供完整度和流利度信息,4:单词纠错模式:能够对单词和句子中的读错读音进行纠正,给出参考正确读音。 EvalMode *int64 `json:"EvalMode,omitempty" name:"EvalMode"` // 评价苛刻指数,取值为[1.0 - 4.0]范围内的浮点数,用于平滑不同年龄段的分数,1.0为小年龄段,4.0为最高年龄段 ScoreCoeff *float64 `json:"ScoreCoeff,omitempty" name:"ScoreCoeff"` // 业务应用ID,与账号应用APPID无关,是用来方便客户管理服务的参数,新的 SoeAppId 可以在[控制台](https://console.cloud.tencent.com/soe)【应用管理】下新建。 SoeAppId *string `json:"SoeAppId,omitempty" name:"SoeAppId"` // 音频存储模式,0:不存储,1:存储到公共对象存储,输出结果为该会话最后一个分片TransmitOralProcess 返回结果 AudioUrl 字段,2:永久存储音频,需要提工单申请,会产生一定存储费用,3:自定义存储,将音频存储到自定义的腾讯云[对象存储](https://cloud.tencent.com/product/cos)中,需要提工单登记存储信息。 StorageMode *int64 `json:"StorageMode,omitempty" name:"StorageMode"` // 输出断句中间结果标识,0:不输出,1:输出,通过设置该参数,可以在评估过程中的分片传输请求中,返回已经评估断句的中间结果,中间结果可用于客户端 UI 更新,输出结果为TransmitOralProcess请求返回结果 SentenceInfoSet 字段。 SentenceInfoEnabled *int64 `json:"SentenceInfoEnabled,omitempty" name:"SentenceInfoEnabled"` // 评估语言,0:英文,1:中文。 ServerType *int64 `json:"ServerType,omitempty" name:"ServerType"` // 异步模式标识,0:同步模式,1:异步模式,可选值参考[服务模式](https://cloud.tencent.com/document/product/884/33697)。 IsAsync *int64 `json:"IsAsync,omitempty" name:"IsAsync"` // 查询标识,当该参数为1时,该请求为查询请求,请求返回该 Session 评估结果。 IsQuery *int64 `json:"IsQuery,omitempty" name:"IsQuery"` // 输入文本模式,0: 普通文本,1:[音素结构](https://cloud.tencent.com/document/product/884/33698)文本。2:音素注册模式(提工单注册需要使用音素的单词)。 TextMode *int64 `json:"TextMode,omitempty" name:"TextMode"` }
func NewTransmitOralProcessWithInitRequest ¶
func NewTransmitOralProcessWithInitRequest() (request *TransmitOralProcessWithInitRequest)
func (*TransmitOralProcessWithInitRequest) FromJsonString ¶
func (r *TransmitOralProcessWithInitRequest) FromJsonString(s string) error
func (*TransmitOralProcessWithInitRequest) ToJsonString ¶
func (r *TransmitOralProcessWithInitRequest) ToJsonString() string
type TransmitOralProcessWithInitResponse ¶
type TransmitOralProcessWithInitResponse struct { *tchttp.BaseResponse Response *struct { // 发音精准度,取值范围[-1, 100],当取-1时指完全不匹配,当为句子模式时,是所有已识别单词准确度的加权平均值,在reftext中但未识别出来的词不计入分数中。当为流式模式且请求中IsEnd未置1时,取值无意义。 PronAccuracy *float64 `json:"PronAccuracy,omitempty" name:"PronAccuracy"` // 发音流利度,取值范围[0, 1],当为词模式时,取值无意义;当为流式模式且请求中IsEnd未置1时,取值无意义 PronFluency *float64 `json:"PronFluency,omitempty" name:"PronFluency"` // 发音完整度,取值范围[0, 1],当为词模式时,取值无意义;当为流式模式且请求中IsEnd未置1时,取值无意义 PronCompletion *float64 `json:"PronCompletion,omitempty" name:"PronCompletion"` // 详细发音评估结果 Words []*WordRsp `json:"Words,omitempty" name:"Words" list` // 语音段唯一标识,一段语音一个SessionId SessionId *string `json:"SessionId,omitempty" name:"SessionId"` // 保存语音音频文件下载地址 AudioUrl *string `json:"AudioUrl,omitempty" name:"AudioUrl"` // 断句中间结果,中间结果是局部最优而非全局最优的结果,所以中间结果有可能和最终整体结果对应部分不一致;中间结果的输出便于客户端UI更新;待用户发音完全结束后,系统会给出一个综合所有句子的整体结果。 SentenceInfoSet []*SentenceInfo `json:"SentenceInfoSet,omitempty" name:"SentenceInfoSet" list` // 评估 session 状态,“Evaluating":评估中、"Failed":评估失败、"Finished":评估完成 Status *string `json:"Status,omitempty" name:"Status"` // 建议评分,取值范围[0,100],评分方式为建议评分 = 准确度(PronAccuracyfloat)× 完整度(PronCompletionfloat)×(2 - 完整度(PronCompletionfloat)),如若评分策略不符合请参考Words数组中的详细分数自定义评分逻辑。 SuggestedScore *float64 `json:"SuggestedScore,omitempty" name:"SuggestedScore"` // 唯一请求 ID,每次请求都会返回。定位问题时需要提供该次请求的 RequestId。 RequestId *string `json:"RequestId,omitempty" name:"RequestId"` } `json:"Response"` }
func NewTransmitOralProcessWithInitResponse ¶
func NewTransmitOralProcessWithInitResponse() (response *TransmitOralProcessWithInitResponse)
func (*TransmitOralProcessWithInitResponse) FromJsonString ¶
func (r *TransmitOralProcessWithInitResponse) FromJsonString(s string) error
func (*TransmitOralProcessWithInitResponse) ToJsonString ¶
func (r *TransmitOralProcessWithInitResponse) ToJsonString() string
type WordRsp ¶
type WordRsp struct { // 当前单词语音起始时间点,单位为ms,该字段段落模式下无意义。 MemBeginTime *int64 `json:"MemBeginTime,omitempty" name:"MemBeginTime"` // 当前单词语音终止时间点,单位为ms,该字段段落模式下无意义。 MemEndTime *int64 `json:"MemEndTime,omitempty" name:"MemEndTime"` // 单词发音准确度,取值范围[-1, 100],当取-1时指完全不匹配 PronAccuracy *float64 `json:"PronAccuracy,omitempty" name:"PronAccuracy"` // 单词发音流利度,取值范围[0, 1] PronFluency *float64 `json:"PronFluency,omitempty" name:"PronFluency"` // 当前词 Word *string `json:"Word,omitempty" name:"Word"` // 当前词与输入语句的匹配情况,0:匹配单词、1:新增单词、2:缺少单词、3:错读的词、4:未录入单词。 MatchTag *int64 `json:"MatchTag,omitempty" name:"MatchTag"` // 音节评估详情 PhoneInfos []*PhoneInfo `json:"PhoneInfos,omitempty" name:"PhoneInfos" list` // 参考词,目前为保留字段。 ReferenceWord *string `json:"ReferenceWord,omitempty" name:"ReferenceWord"` }
Click to show internal directories.
Click to hide internal directories.