< Summary

Class:Microsoft.Azure.Search.Models.MicrosoftLanguageStemmingTokenizer
Assembly:Microsoft.Azure.Search.Service
File(s):C:\Git\azure-sdk-for-net\sdk\search\Microsoft.Azure.Search.Service\src\Generated\Models\MicrosoftLanguageStemmingTokenizer.cs
Covered lines:13
Uncovered lines:1
Coverable lines:14
Total lines:125
Line coverage:92.8% (13 of 14)
Covered branches:1
Total branches:2
Branch coverage:50% (1 of 2)

Metrics

MethodCyclomatic complexity Line coverage Branch coverage
.ctor()-100%100%
.ctor(...)-100%100%
get_MaxTokenLength()-100%100%
get_IsSearchTokenizer()-100%100%
get_Language()-100%100%
Validate()-75%50%

File(s)

C:\Git\azure-sdk-for-net\sdk\search\Microsoft.Azure.Search.Service\src\Generated\Models\MicrosoftLanguageStemmingTokenizer.cs

#LineLine coverage
 1// <auto-generated>
 2// Copyright (c) Microsoft Corporation. All rights reserved.
 3// Licensed under the MIT License. See License.txt in the project root for
 4// license information.
 5//
 6// Code generated by Microsoft (R) AutoRest Code Generator.
 7// Changes may cause incorrect behavior and will be lost if the code is
 8// regenerated.
 9// </auto-generated>
 10
 11namespace Microsoft.Azure.Search.Models
 12{
 13    using Microsoft.Rest;
 14    using Newtonsoft.Json;
 15    using System.Linq;
 16
 17    /// <summary>
 18    /// Divides text using language-specific rules and reduces words to their
 19    /// base forms.
 20    /// </summary>
 21    [Newtonsoft.Json.JsonObject("#Microsoft.Azure.Search.MicrosoftLanguageStemmingTokenizer")]
 22    public partial class MicrosoftLanguageStemmingTokenizer : Tokenizer
 23    {
 24        /// <summary>
 25        /// Initializes a new instance of the
 26        /// MicrosoftLanguageStemmingTokenizer class.
 27        /// </summary>
 9428        public MicrosoftLanguageStemmingTokenizer()
 29        {
 30            CustomInit();
 9431        }
 32
 33        /// <summary>
 34        /// Initializes a new instance of the
 35        /// MicrosoftLanguageStemmingTokenizer class.
 36        /// </summary>
 37        /// <param name="name">The name of the tokenizer. It must only contain
 38        /// letters, digits, spaces, dashes or underscores, can only start and
 39        /// end with alphanumeric characters, and is limited to 128
 40        /// characters.</param>
 41        /// <param name="maxTokenLength">The maximum token length. Tokens
 42        /// longer than the maximum length are split. Maximum token length that
 43        /// can be used is 300 characters. Tokens longer than 300 characters
 44        /// are first split into tokens of length 300 and then each of those
 45        /// tokens is split based on the max token length set. Default is
 46        /// 255.</param>
 47        /// <param name="isSearchTokenizer">A value indicating how the
 48        /// tokenizer is used. Set to true if used as the search tokenizer, set
 49        /// to false if used as the indexing tokenizer. Default is
 50        /// false.</param>
 51        /// <param name="language">The language to use. The default is English.
 52        /// Possible values include: 'arabic', 'bangla', 'bulgarian',
 53        /// 'catalan', 'croatian', 'czech', 'danish', 'dutch', 'english',
 54        /// 'estonian', 'finnish', 'french', 'german', 'greek', 'gujarati',
 55        /// 'hebrew', 'hindi', 'hungarian', 'icelandic', 'indonesian',
 56        /// 'italian', 'kannada', 'latvian', 'lithuanian', 'malay',
 57        /// 'malayalam', 'marathi', 'norwegianBokmaal', 'polish', 'portuguese',
 58        /// 'portugueseBrazilian', 'punjabi', 'romanian', 'russian',
 59        /// 'serbianCyrillic', 'serbianLatin', 'slovak', 'slovenian',
 60        /// 'spanish', 'swedish', 'tamil', 'telugu', 'turkish', 'ukrainian',
 61        /// 'urdu'</param>
 62        public MicrosoftLanguageStemmingTokenizer(string name, int? maxTokenLength = default(int?), bool? isSearchTokeni
 9663            : base(name)
 64        {
 9665            MaxTokenLength = maxTokenLength;
 9666            IsSearchTokenizer = isSearchTokenizer;
 9667            Language = language;
 68            CustomInit();
 9669        }
 70
 71        /// <summary>
 72        /// An initialization method that performs custom operations like setting defaults
 73        /// </summary>
 74        partial void CustomInit();
 75
 76        /// <summary>
 77        /// Gets or sets the maximum token length. Tokens longer than the
 78        /// maximum length are split. Maximum token length that can be used is
 79        /// 300 characters. Tokens longer than 300 characters are first split
 80        /// into tokens of length 300 and then each of those tokens is split
 81        /// based on the max token length set. Default is 255.
 82        /// </summary>
 83        [JsonProperty(PropertyName = "maxTokenLength")]
 56684        public int? MaxTokenLength { get; set; }
 85
 86        /// <summary>
 87        /// Gets or sets a value indicating how the tokenizer is used. Set to
 88        /// true if used as the search tokenizer, set to false if used as the
 89        /// indexing tokenizer. Default is false.
 90        /// </summary>
 91        [JsonProperty(PropertyName = "isSearchTokenizer")]
 47292        public bool? IsSearchTokenizer { get; set; }
 93
 94        /// <summary>
 95        /// Gets or sets the language to use. The default is English. Possible
 96        /// values include: 'arabic', 'bangla', 'bulgarian', 'catalan',
 97        /// 'croatian', 'czech', 'danish', 'dutch', 'english', 'estonian',
 98        /// 'finnish', 'french', 'german', 'greek', 'gujarati', 'hebrew',
 99        /// 'hindi', 'hungarian', 'icelandic', 'indonesian', 'italian',
 100        /// 'kannada', 'latvian', 'lithuanian', 'malay', 'malayalam',
 101        /// 'marathi', 'norwegianBokmaal', 'polish', 'portuguese',
 102        /// 'portugueseBrazilian', 'punjabi', 'romanian', 'russian',
 103        /// 'serbianCyrillic', 'serbianLatin', 'slovak', 'slovenian',
 104        /// 'spanish', 'swedish', 'tamil', 'telugu', 'turkish', 'ukrainian',
 105        /// 'urdu'
 106        /// </summary>
 107        [JsonProperty(PropertyName = "language")]
 472108        public MicrosoftStemmingTokenizerLanguage? Language { get; set; }
 109
 110        /// <summary>
 111        /// Validate the object.
 112        /// </summary>
 113        /// <exception cref="ValidationException">
 114        /// Thrown if validation fails
 115        /// </exception>
 116        public override void Validate()
 117        {
 94118            base.Validate();
 94119            if (MaxTokenLength > 300)
 120            {
 0121                throw new ValidationException(ValidationRules.InclusiveMaximum, "MaxTokenLength", 300);
 122            }
 94123        }
 124    }
 125}