分类
新手该如何开始进行外汇交易

常见的K线组合有哪些

汇总特征,取均值,例如活跃天=score/天数

Translation of frequent 常见的K线组合有哪些 – English-Vietnamese dictionary

At the same time, there are other persons besides dealers in the habit of frequenting sales who may make such arrangements.

Example from the Hansard archive. Contains Parliamentary information licensed under the Open Parliament Licence v3.0

The county councils have full control, and the courses are not frequented paths, but are specially selected for their difficulty and their awkwardness.

Example from the Hansard archive. Contains Parliamentary information licensed under the Open Parliament Licence v3.0

Our cities, our health and entertainment resorts, will be frequented by crowds of foreigners curious how a country can live under the siege of 常见的K线组合有哪些 sanctions.

Example from the Hansard archive. Contains Parliamentary information licensed under the Open Parliament Licence v3.0

However, they 常见的K线组合有哪些 stated that the 2-year-old brother regularly frequented the barn, and there was a high probability that he had direct contact with cattle.

How will the licensing board get evidence that the nuisance is caused by people frequenting the premises?

Example from the Hansard archive. Contains Parliamentary information licensed under the Open Parliament Licence v3.0

Second, seafood restaurants are regularly frequented by women, who are invariably "常见的K线组合有哪些 secular" and uncovered (acik).

These examples are from corpora and from sources on the web. Any opinions in the examples do not represent the opinion of the Cambridge Dictionary editors or of Cambridge University Press or its licensors.

Translations of frequent

Get a quick, free translation!

Browse

More translations of frequent in Vietnamese

  • frequent flyer/flier

Word of the Day

to relax and not work too hard

© Cambridge University Press 2022

© Cambridge University Press 2022

Learn more with +Plus

Learn more with +Plus

  • Recent and Recommended
  • English–French French–English
  • English–German German–English
  • English–Indonesian Indonesian–English
  • English–Italian Italian–English
  • English–Japanese Japanese–English
  • English–Polish Polish–English
  • English–Portuguese Portuguese–English
  • English–Spanish Spanish–English

Dutch–English English–Arabic English–Catalan English–Chinese (Simplified) English–Chinese (Traditional) English–Czech English–Danish English–Korean English–Malay English–Norwegian English–Russian English–Thai English–Turkish English–Ukrainian English–Vietnamese

Add frequent to one of your lists below, or create a new one.

一、特征工程的重要性

惰性是推动科技发展的动力,很多算法工程也在思考,能不能通过模型的方式来自动的学习和构成特征呢?"所有的想法都会有实现的一天",现在市面上有效的特征构造模型有 FM(Factorization Machine 因子分解机)、深度学习(提取训练好的模型中隐层作为特征)可以自己学习出一些特征以及特征之间的组合关系,有人使用过主题模型 LDA、word2vec、FM 来作为特征生成的模型,将模型训练的中间结果,比如 LDA 的主题分布、word2vec 生成的词向量用于 LR 这样的线性模型,线上测试效果都非常好。

二、特征工程的子问题

  • 不属于同一量纲:即特征的规格不一样,不能够放在一起比较。无量纲化可以解决这一问题。
  • 信息冗余:对于某些定量特征,其包含的有效信息为区间划分,例如学习成绩,假若只关心“及格”或不“及格”,那么需要将定量的考分,转换成“1”和“0”表示及格和未及格。二值化可以解决这一问题。
  • 定性特征不能直接使用:某些机器学习算法和模型只能接受定量特征的输入,那么需要将定性特征转换为定量特征。最简单的方式是为每一种定性值指定一个定量值,但是这种方式过于灵活,增加了调参的工作。通常使用哑编码的方式将定性特征转换为定量特征:假设有N种定性值,则将这一个特征扩展为N种特征,当原始特征值为第i种定性值时,第i个扩展特征赋值为1,其他扩展特征赋值为0。哑编码的方式相比直接指定的方式,不用增加调参的工作,对于线性模型来说,使用哑编码后的特征可达到非线性的效果。
  • 存在缺失值:缺失值需要补充。
  • 信息利用率低:不同的机器学习算法和模型对数据中信息的利用是不同的,之前提到在线性模型中,使用对定性特征哑编码可以达到非线性的效果。类似地,对定量变量多项式化,或者进行其他的转换,都能达到非线性的效果。

1. 特征清洗、数据清洗

1. 结合业务情况进行数据的过滤,例如去除 crawler 抓取,spam,作弊等数据。

例如极差,四分位数间距,均差,标准差等,这种方法适合于挖掘单变量的数值型数据。全距(Range),又称极差,是用来表示统计资料中的变异量数(measures of variation) ,其最大值与最小值之间的差距;四分位距通常是用来构建箱形图,以及对概率分布的简要图表概述。

主要通过距离方法来检测异常点,将数据集中与大多数点之间距离大于某个阈值的点视为异常点,主要使用的距离度量方法有绝对距离 ( 曼哈顿距离 ) 、欧氏距离和马氏距离等方法。

考察当前点周围密度,可以发现局部异常点,例如 LOF 算法

2. 特征处理、数据处理

1) 连续型特征

归一化

这种归一化方法比较适用在数值比较集中的情况。这种方法有个缺陷,如果 max 和 min 不稳定,很容易使得归一化结果不稳定,使得后续使用效果也不稳定。实际使用中可以用经验常量值来替代 max 和 min。

在完全随机的情况下,我们可以假设我们的数据是符合标准正态分布的,也就是均值为 0,标准差为 1;那么其归一化函数如下:

在数据分化比较大的场景中,有些数值很大,有些很小。通过一些数学函数,将原始值进行映射。该方法包括 log、指数,正切等。需要根据数据分布的情况,决定非线性函数的曲线,比如 log(V, 2) 还是 log(V, 10) 等。

,其中

,其中

汇总特征,取均值,例如活跃天=score/天数

离散化

离散化可以理解为将连续的特征值转换为为离散的特征值的过程,也称为分区或分箱。离散化对于线性模型来说是非常有帮助的,原因是它可以将目标值 Y 与特征值的线性转为目标值与离散化之后转化的向量里的每个元素之间的线性关系,这样向量的每个分量都有一个权重,引入了非线性,提升了模型拟合能力。之前做过实验,使用同样的特征,有经过离散化处理的特征训练出来的模型,会比没有经过离散化训练出来的模型效果好 20%以上;现在使用比较多的特征离散化的方法有,等频离散、等距离散、树模型离散。

2) 离散型特征

3) 时间型特征

4) 文本型特征

文本型特征常见的处理方法有两类,第一类采用最普通的词袋(bag of words)模型,以及在此基础上加入ngram扩充词袋,以及使用tfidf加权特征值。第二类是基于Word2vec生成词向量。

词袋模型

词袋模型 + ngram

词袋模型 + ngram + tfidf加权

原本的词袋模型其实是表征的词袋中每一个词在该文档中的出现次数 ,但如果这个词仅在所以样本中都出现了很多次,该词的特征值就失去了良好的特征表达能力,因此就出现了tfidf来平衡权值。TFIDF的主要思想是:如果某个词或短语在一篇文章中出现的频率TF高,并且在其他文章中很少出现,则认为此词或者短语具有很好的类别区分能力,适合用来分类。TFIDF实际上是:TF * IDF,TF词频(Term Frequency),IDF反文档频率(Inverse Document Frequency)。

在一份给定的文件里,词频(term frequency,TF)指的是某一个给定的词语在该文件中出现的频率。这个数字是对词数(term count)的归一化,以防止它偏向长的文件。(同一个词语在长文件里可能会比短文件有更高的词数,而不管该词语重要与否。)对于在某一特定文件里的词语 " /> 来说,它的重要性可表示为:> = \frac>>" />

以上式子中 " /> 是该词" /> 在文件" />中的出现次数,而分母则是在文件" />中所有字词的出现次数之和。

逆向文件频率(inverse document frequency,IDF)是一个词语普遍重要性的度量。某一特定词语的IDF,可以由总文件数目除以包含该词语之文件的数目,再将得到的商取对数得到

> = \log \frac<|D|> <|\\in d_\>|>" />,有时候为了防止出现0的情况,会加上平滑(t) = log(d,t)>> + 1" />。

word2vec

2013年,Google开源了一款用于词向量计算的工具——word2vec,引起了工业界和学术界的关注。首先,word2vec可以在百万数量级的词典和上亿的数据集上进行高效地训练;其次,该工具得到的训练结果——词向量(word embedding),可以很好地度量词与词之间的相似性。随着深度学习(Deep Learning)在自然语言处理中应用的普及,很多人误以为word2vec是一种深度学习算法。其实word2vec算法的背后是一个浅层神经网络。另外需要强调的一点是,word2vec是一个计算word vector的开源工具。当我们在说word2vec算法或模型的时候,其实指的是其背后用于计算word vector的CBoW模型和Skip-gram模型。很多人以为word2vec指的是一个算法或模型,这也是一种谬误。在本文,由于篇幅原因,就不对word2vec做详细的原理介绍,以后会专门写一篇介绍Word2vec原理的文章。