< Summary

Class:Microsoft.Azure.Search.Models.ClassicTokenizer
Assembly:Microsoft.Azure.Search.Service
File(s):C:\Git\azure-sdk-for-net\sdk\search\Microsoft.Azure.Search.Service\src\Generated\Models\ClassicTokenizer.cs
Covered lines:9
Uncovered lines:1
Coverable lines:10
Total lines:81
Line coverage:90% (9 of 10)
Covered branches:1
Total branches:2
Branch coverage:50% (1 of 2)

Metrics

MethodCyclomatic complexity Line coverage Branch coverage
.ctor()-100%100%
.ctor(...)-100%100%
get_MaxTokenLength()-100%100%
Validate()-75%50%

File(s)

C:\Git\azure-sdk-for-net\sdk\search\Microsoft.Azure.Search.Service\src\Generated\Models\ClassicTokenizer.cs

#LineLine coverage
 1// <auto-generated>
 2// Copyright (c) Microsoft Corporation. All rights reserved.
 3// Licensed under the MIT License. See License.txt in the project root for
 4// license information.
 5//
 6// Code generated by Microsoft (R) AutoRest Code Generator.
 7// Changes may cause incorrect behavior and will be lost if the code is
 8// regenerated.
 9// </auto-generated>
 10
 11namespace Microsoft.Azure.Search.Models
 12{
 13    using Microsoft.Rest;
 14    using Newtonsoft.Json;
 15    using System.Linq;
 16
 17    /// <summary>
 18    /// Grammar-based tokenizer that is suitable for processing most
 19    /// European-language documents. This tokenizer is implemented using Apache
 20    /// Lucene.
 21    /// <see
 22    /// href="http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer
 23    /// />
 24    /// </summary>
 25    [Newtonsoft.Json.JsonObject("#Microsoft.Azure.Search.ClassicTokenizer")]
 26    public partial class ClassicTokenizer : Tokenizer
 27    {
 28        /// <summary>
 29        /// Initializes a new instance of the ClassicTokenizer class.
 30        /// </summary>
 431        public ClassicTokenizer()
 32        {
 33            CustomInit();
 434        }
 35
 36        /// <summary>
 37        /// Initializes a new instance of the ClassicTokenizer class.
 38        /// </summary>
 39        /// <param name="name">The name of the tokenizer. It must only contain
 40        /// letters, digits, spaces, dashes or underscores, can only start and
 41        /// end with alphanumeric characters, and is limited to 128
 42        /// characters.</param>
 43        /// <param name="maxTokenLength">The maximum token length. Default is
 44        /// 255. Tokens longer than the maximum length are split. The maximum
 45        /// token length that can be used is 300 characters.</param>
 46        public ClassicTokenizer(string name, int? maxTokenLength = default(int?))
 647            : base(name)
 48        {
 649            MaxTokenLength = maxTokenLength;
 50            CustomInit();
 651        }
 52
 53        /// <summary>
 54        /// An initialization method that performs custom operations like setting defaults
 55        /// </summary>
 56        partial void CustomInit();
 57
 58        /// <summary>
 59        /// Gets or sets the maximum token length. Default is 255. Tokens
 60        /// longer than the maximum length are split. The maximum token length
 61        /// that can be used is 300 characters.
 62        /// </summary>
 63        [JsonProperty(PropertyName = "maxTokenLength")]
 2664        public int? MaxTokenLength { get; set; }
 65
 66        /// <summary>
 67        /// Validate the object.
 68        /// </summary>
 69        /// <exception cref="ValidationException">
 70        /// Thrown if validation fails
 71        /// </exception>
 72        public override void Validate()
 73        {
 474            base.Validate();
 475            if (MaxTokenLength > 300)
 76            {
 077                throw new ValidationException(ValidationRules.InclusiveMaximum, "MaxTokenLength", 300);
 78            }
 479        }
 80    }
 81}