Markov chain

Markov chain是什么意思、Markov chain怎么读
【计】 马尔可夫链

Markov chain汉语翻译

【计】 马尔可夫链

Markov chain英语解释

名词 markov chain:

  1. a Markov process for which the parameter is discrete time values
    同义词:Markoff chain