Logo
一発話認識

iOS SDK

  • iOS 11.0以上のバージョンがサポートされています。
  • SDKを使用する前に、まずインターフェイスプロトコルを読んでください。詳細についてはインターフェイスプロトコルを参照してください。

1 統合手順

  1. 手動でインポート:SpeechEvaluate.frameworkをプロジェクトにドラッグしてください。その後、General -> Frameworks, Libraries, and Embedded ContentSpeechRecognitionSDK.frameworkEmbedEmbed&Signに変更してください。

  2. podにSocketRocket0.6.0、AFNetworkingが含まれていることを確認してください。

1.1 アプリ関連のアクセス許可を追加してください

プロジェクトの info.plist ファイルに Privacy - Microphone Usage Description を追加して、マイクアクセス権限を追加してください。

1.2 呼び出し手順/サンプルコード

認識機能が必要なファイルで、代理アグリーメントEvalListenerを遵守してください。

//主なパラメータを設定する
SDKRecognitionParams *params = [[SDKRecognitionParams alloc] init];
params.appId = @"";
params.appSecret = @"";
params.sample_rate = 16000;//サンプリング率
params.format = @"pcm";//音声エンコード形式
params.realtime = YES;//リアルタイム認識かどうか、trueはリアルタイム認識、falseはひとこと認識を表します
params.langType = @"zh-cmn-Hans-CN";//必須 言語
params.enable_intermediate_result = YES;//中間結果を返すかどうか
params.enable_punctuation_prediction = YES;//後処理でITNを実行するかどうか
params.max_sentence_silence = 450;//音声の区切り検出閾値、マルチメディアの長さがこの閾値を超えると区切りとみなされます。200~1200、単位:ミリ秒、デフォルト値は450です
params.enable_words = YES;//単語情報を返す機能をオンにするかどうか

1.2.1 認識クラスを作成し、アクセス権を与えてください

名称タイプ説明
listenerid認識クラス
paramsSDKRecognitionParamsパラメーターと構成
//エンジンを初期化する
 SpeechRecognition *speechManger = [[SpeechRecognition alloc] init];
[speechManger setInitSDK:self params:params];
self.speechManger = speechManger;

1.2.2 コールバックメソッド

名称タイプ説明
onRecognitionStartStringエンジン接続開始のコールバックメソッド
onRecognitionResultStringエンジンが内容結果を戻すコールバックメソッド
onRecognitionRealtimeResultStringエンジンが中間結果を戻すコールバックメソッド
onRecognitionWarningStringエンジンが結果警告を戻すコールバックメソッド
onRecognitionErrorStringエンジンが結果エラーを戻すコールバックメソッド
/**
 * 中間の認識結果を返す
 */
- (void) onRecognitionRealtimeResult: (NSString *) result;
/**
 * 認識結果を返す
 */
- (void) onRecognitionResult: (NSString *) result;
/**
 * 録音開始成功を表示する
 */
- (void) onRecognitionStart: (NSString *) taskId;

/**
 * 認識終了成功を表示する
 */
- (void) onRecognitionStop;

/**
 * リアルタイムで録音した音声データを返す
 */
- (void) onRecognitionGetAudio: (NSData *)data;

/**
 * エラーコールバック、エラーコードとメッセージを返す
 */
- (void) onRecognitionError: (NSString *)code msg:(NSString*)msg taskId:(nullable NSString*)taskId;

/**
 * 警告のコールバック
 */
- (void) onRecognitionWarning: (NSString *)code msg:(NSString*)msg taskId:(nullable NSString*)taskId;

1.2.3 パラメーターの説明

パラメータタイプ必須説明デフォルト値
lang_typeStringはい言語オプション必須
formatStringいいえ音声エンコード形式pcm
sample_rateIntegerいいえ音声サンプルレート16000
enable_intermediate_resultBooleanいいえ中間認識結果を返すかどうかfalse
enable_punctuation_predictionBooleanいいえ後処理で句読点を追加するかどうかfalse
enable_inverse_text_normalizationBooleanいいえ後処理でITNを実行するかどうかfalse
max_sentence_silenceIntegerいいえ音声センテンスのサイレンス検出しきい値、サイレンス時間がこのしきい値を超えるとセンテンスが切り替えられます。有効なパラメータ範囲は200~1200で、単位はミリ秒です450
enable_wordsBooleanいいえ単語情報を返すかどうかfalse
enable_modal_particle_filterBooleanいいえ語気詞フィルタを有効にするかどうかfalse
hotwords_idStringいいえ単語ID無し
hotwords_weightFloatいいえ単語ウェイト、値の範囲[0.1, 1.0]0.4
correction_words_idStringいいえ強制置換単語庫ID
複数の強制置換単語庫IDを使用することができ、各IDは縦線|で区切られます;all は全ての強制置換単語庫IDを使用することを意味します。
無し
forbidden_words_idStringいいえNG単語ID
複数のNG単語IDを使用することができ、各IDは縦線|で区切られます;all は全てのNG単語IDを使用することを意味します。
無し

1.2.4 開始/停止認識

<1>認識開始(sdk内部録音)
    [self.speechManger startRecording];
    
認識終了
    [self.speechManger stopRecording];
    
<2>ファイル認識 (録音ファイルのローカルパスを直接渡す)   
    [self.speechManger startRecognitionOralWithWavPath:@"wav音声ファイルのパス"];

<3>音声データ認識(sdk外部録音、またはファイルをNSDataデータに変換して認識)    
- (void)doStart:(FinishBlock)finishBlock;
- (BOOL)doSetData:(NSData *) data isLast:(bool)isLast;
呼び出し方法
[self.speechManger doStart:^(_Bool success) {
            if (success) {
if(最後のセグメントに音声がある場合){
[self.speechManger doSetData:data isLast:YES];
}else{
[self.speechManger doSetData:data isLast:NO];
}
}
}];

1.2.5 強制的な文区切り

[self.speechManger sentenceEnd];

1.2.6 カスタマイズされた話者

[self.speechManger speakerStart:@"speaker_name"];

2 SDKダウンロード

iOS SDK

iOS Demo