word2vec两次训练出来的词向量模型一样吗

如题所述

如果函数g(z)在z=z0处解析(或z=z0不是函数g(z)的奇点),则有Res[g(z),z0]=0
证明可以用反证法.如果Res[g(z),z0]≠0,则根据g(z)洛朗展开式中负数次项的多少,z=z0或者为函数g(z)的极点(当负数次项为有限多项时),或者为函数g(z)的本性奇点(当负数次项为无限多项时),这与z=z0不是函数g(z)的奇点矛盾.因此结论成立.

你贴出的两张图,倒数第二步到最后一步是直接应用了这个结论.
顺带说一下,第一张图中,倒数第三步到倒数第二步的变形有误,最后结果不应为0.
温馨提示:内容为网友见解,仅供参考
无其他回答
相似回答