Markov processの部分一致の例文一覧と使い方
該当件数 : 19件
A Markov decision process is a controllable Markov process with rewards. 例文帳に追加
マルコフ決定過程は報酬を伴う制御可能なマルコフ過程の一つである。 - コンピューター用語辞典
Markov process is a process in which the sequence of events can be described by a Markov chain. 例文帳に追加
マルコフ過程は1つのプロセスであり,そこでは,イベントの順序はマルコフ連鎖によって説明できる. - コンピューター用語辞典
a Markov process for which the parameter is discrete time values 例文帳に追加
パラメーターが離散時間値であるマルコフ過程 - 日本語WordNet
relating to or generated by a Markov process 例文帳に追加
マルコフ過程に関連した、またはマルコフ過程によって作られた - 日本語WordNet
An embedded dtMc is obtained by looking at a semi-Markov process only at transition instances. 例文帳に追加
埋め込みdtMcは、セミ・マルコフ過程を遷移事例においてのみ考察することによって得られる。 - コンピューター用語辞典
To learn a prediction function of time series data on a non-Markov process by a continuous-valued function approximation technique ensuring short time convergence to a global solution.例文帳に追加
短時間で大域解への収束が保証されている連続値関数近似手法を用いて非マルコフ過程の時系列データの予測関数を学習する。 - 特許庁
The first state transition probability and prescribed first reward are used to obtain a state value function V^π(s) on the basis of dynamic programming in a Markov decision process.例文帳に追加
第一状態遷移確率及び所定の第一報酬を用いて、マルコフ決定過程における動的計画法に基づき、状態価値関数V^π(s)を求める。 - 特許庁
A dynamic planning method in an Augmented MDP is applied based on an assumption that the probability distribution on a state of the behavior subject can be expressed by entropy of a state among a partial observation Markov determining process (POMDP).例文帳に追加
部分観測マルコフ決定過程(POMDP)のうち、行動主体の状態についての確率分布が状態のエントロピーにて表現可能であるという仮定に基づくAugmented MDPにおける動的計画法を応用する。 - 特許庁
The second state transition probability and the second reward are used to obtain action value function Q^π(s, a) and the state value function V^π(s) on the basis of the dynamic programming in the Markov decision process.例文帳に追加
第二状態遷移確率及び第二報酬を用いて、マルコフ決定過程における動的計画法に基づき、行動価値関数Q^π(s,a)及び状態価値関数V^π(s)を求める。 - 特許庁
A computer 100 operating as an adaptive control unit decides controlled variables for the status of a target physical system, when the time development of the physical system is described as a Markov process.例文帳に追加
適応制御器として動作するコンピュータ100は、対象とする物理システムの時間発展がマルコフ過程として記述される際に、物理システムの状態に対する制御量を決定する。 - 特許庁
For the prediction of a time series of a non-Markov process, a function F handles an (n+m)-dimensional state {z_t} where m-dimensional context information {c_t} is added to an n-dimensional learning sample {x_t}, as time series information.例文帳に追加
非マルコフ過程の時系列を予測するために、関数Fはn次元の学習サンプル{x_t}にm次元の文脈情報{c_t}を加えた(n+m)次元の状態{z_t}を時系列情報として扱う。 - 特許庁
To provide a method for converting a given continuous state space dynamical system to a Markov decision process (MDP) with discrete states so that an optimum control sequence can be found with respect to MDP and a continuous state space system.例文帳に追加
最適な制御シーケンスをMDF及び連続状態空間システムについて見つけることができるように、所与の連続状態空間動的システムを離散状態空間を有するマルコフ決定過程(MDF)に変換する。 - 特許庁
A center ID human rank calculation unit 200 uses a prescribed recurrence formula (formula (1)) expressing a Markov process to calculate human ranks representing degree of importance for each of other persons for a central person based on the human relationship information.例文帳に追加
中心ID人間ランク計算部200は、マルコフ過程を表す所定の漸化式(式(1))を用いて、人間関係情報に基づく中心人物にとっての他の人物ごとの重要度を示す人間ランクを計算する。 - 特許庁
The Partially Observable Markov decision process (POMDP) is automatically generated, by inputting attribute information such as an EPG (Electronic Program Guide) to be transmitted by broadcasting waves and attribute value data (Attribute-Value) having its value.例文帳に追加
例えば放送波によって送信されるEPG(Electronic Program Guide)など、属性情報とその値を持つ属性値データ(Attribute−Value)を入力して部分観測マルコフ決定過程(POMDP:Partially Observable Markov Decision Process)を自動的に生成する。 - 特許庁
In particular, a Partially Observable Markov decision process (POMDP) model is automatically generated, by performing the generation of questions based on the attribute data and output processing as actions, acquiring answers to the questions as observation information, and performing the generation processing of probability distribution information corresponding to an object based on the acquired observation information.例文帳に追加
具体的には、属性データに基づく質問の生成、出力処理を行動として実行して、質問に対する回答を観測情報として取得し、取得した観測情報に基づくオブジェクト対応の確率分布情報の生成処理を実行して部分観測マルコフ決定過程(POMDP)モデルを自動的に生成する。 - 特許庁
As for the respective information of a state, action, observation and reward defined in a partially observable Markov decision process(POMDP), a plurality of different factors are respectively set, and a factored POMDP clarifying the relations of those factors is constructed.例文帳に追加
部分観測マルコフ決定過程(POMDP:Partially Observable Markov Decision Process)において定義される状態(State)、行動(Action)、観測(Observation)、報酬(Reward)の各情報について、それぞれ複数の異なる要素(ファクタ)を設定し、要素間の関係を明確にしたファクタPOMDP(Factored POMDP)を構築する。 - 特許庁
Furthermore, since the information processor is constituted so as to execute grounding processing for understanding a user request by applying Partial Observable Markov Decision Process (POMDP) to the selected user speech, a request to a device is exactly selected to promptly perform a task even under the environment in which the plurality of speeches are mixed.例文帳に追加
さらに、選択したユーザ発話を部分観測マルコフ決定過程(POMDP:Partially Observable Markov Decision Process)を適用して、ユーザ要求を理解するグラウンディング処理を実行する構成としたので、複数の発話が混在する環境においても、装置に対する要求を的確に選択して迅速にタスクを行なうことが可能となる。 - 特許庁
In a natural state action gradient learning method for solving the decision making model using a Markov decision process, in order to solve a problem in which the variance becomes larger with respect to estimation of the NSG and a number of the learning steps are required, an estimation equation of the conventional NSG is observed, it is focused that LSD included therein is expressed in a second-order term.例文帳に追加
マルコフ決定過程を用いる意思決定モデルを解くための自然状態行動勾配学習法において、NSGの推定に関して分散が大きくなり、多くの学習ステップを要してしまうという問題を解決するために、従来のNSGの推定式を観察して、そこに含まれているLSDが二次の項で表れていることに着目した。 - 特許庁
|
ログイン |
Weblio会員(無料)になると
|
|
ログイン |
Weblio会員(無料)になると
|

