Documentation ¶
Index ¶
- Constants
- func Filter(vs chan string, filters ...Predicate) chan string
- func IsNotStopWord(v string) bool
- func IsStopWord(v string) bool
- func Map(vs chan string, f ...Mapper) chan string
- func WordCounts(data string) (map[string]int, error)
- type Classifier
- type ClassifierInterface
- type Mapper
- type Option
- type Predicate
- type StdOption
- type StdTokenizer
- type Tokenizer
Constants ¶
View Source
const ( ErrClassNotFound = "[AstrA] Не удалось найти класс" ErrNotClassified = "[AstrA] Не удалось определить класс текста" ErrEmptyText = "[AstrA] Передан пустой текст" )
Variables ¶
This section is empty.
Functions ¶
func IsStopWord ¶
IsStopWord выполняет бинарный поиск по списку распространенных русских стоп-слов Возвращает true, если v является стоп-словом, иначе false
Types ¶
type Classifier ¶
type Classifier struct { MapTokenToCategory map[string]map[string]int CategoriesCount map[string]int // contains filtered or unexported fields }
Classifier описывает структуру классификатора
func New ¶
func New(opts ...Option) *Classifier
New создает новый классификатор со стандартным токенизатором
func (*Classifier) Classify ¶
func (c *Classifier) Classify(data string) (guessedClass string, coincidenceIndex float64, err error)
Classify производит попытку определить класс переданного текста в документа testData
type ClassifierInterface ¶
type ClassifierInterface interface { Train(string, string) error // Вызов фукнции обучения по массиву данных Classify(string) (string, error) // Определение класса входного массива данных }
Classifier оборачивает методы работы с сетью
type Option ¶
type Option func(c *Classifier) error
Option описывает дополнительный настройки классификатора
func TokenizerCustom ¶
TokenizerCustom перезаписывает стандартный токенизатор
type StdTokenizer ¶
type StdTokenizer struct {
// contains filtered or unexported fields
}
StdTokenizer содержит tokenizer для обработки входных данных по разделителю
func NewTokenizer ¶
func NewTokenizer(opts ...StdOption) *StdTokenizer
NewTokenizer создает новый экзмепляр tokenizer
func (*StdTokenizer) Tokenize ¶
func (t *StdTokenizer) Tokenize(data string) chan string
Tokenize разбивает переданный документ на токены
Click to show internal directories.
Click to hide internal directories.