意味 | 例文 (21件) |
inference networkとは 意味・読み方・使い方
追加できません
(登録数上限)

「inference network」の部分一致の例文検索結果
該当件数 : 21件
KNOWLEDGE RULE EXTRACTING METHOD AND APPARATUS, AND FUZZY INFERENCE TYPE NEURAL NETWORK例文帳に追加
知識ルール抽出方法及び装置、ファジィ推論型ニューラルネットワーク - 特許庁
METHOD OF FORMING INPUT VECTOR OF NERVE NETWORK FOR AUTOMATIC INFERENCE OF PARTIAL DISCHARGE CAUSES例文帳に追加
部分放電原因自動推論用の神経網の入力ベクトル生成方法 - 特許庁
A probability inference functioning part 170 receives the observation value, and performs the probability inference of a non-observation value by using a method such as a Bayesian network or the like.例文帳に追加
この観測値を確率推論機能部170が受信し、ベイジアンネットワーク等の手法を用いて非観測値を確率推論する。 - 特許庁
A neural network model having input and output parameters common to this fuzzy inference model is constituted.例文帳に追加
このファジィ推論モデルと共通の入出力パラメータを有するニューラルネットワークモデルを構成する。 - 特許庁
To provide a probabilistic inference device for quickly and efficiently performing inference processing by using a Bayesian network having a mechanism for restricting the combination of the values of nodes representing random variables.例文帳に追加
確率変数を表すノードの取り得る値の組み合わせを制限する機構を持つベイジアンネットを用いて推論処理を高速に効率よく行う確率的推論装置を提供する。 - 特許庁
An adaptive inference model is provided with a standard inference model such as a neural network or a natural model which is constituted so that an output for inferring a process parameter is generated, and the output from the inference model is connected to one or a plurality of measured process parameters to generate an adjusted inference process parameter during process operation.例文帳に追加
適応推定モデルは、プロセスパラメータを推定する出力を生成し、プロセスの動作中の調節された推定プロセスパラメータを生成すべく、前記推定モデルの出力を一又は複数の測定プロセスパラメータと結合するように構成されたニューラルネットワーク又は自然モデルのような標準的な推定モデルを備える。 - 特許庁
-
履歴機能過去に調べた
単語を確認! -
語彙力診断診断回数が
増える! -
マイ単語帳便利な
学習機能付き! -
マイ例文帳文章で
単語を理解! -
「inference network」の部分一致の例文検索結果
該当件数 : 21件
An adaptive inference model is provided with a standard inference model such as a neural network or a natural model constituted so that the output of the inference model can be connected to one or more measuring process parameters for generating an output for estimating a process parameter, and for generating an adjusted inference process parameter during the operation of the process.例文帳に追加
適応推定モデルは、プロセスパラメータを推定する出力を生成し、プロセスの動作中の調節された推定プロセスパラメータを生成すべく、前記推定モデルの出力を一又は複数の測定プロセスパラメータと結合するように構成されたニューラルネットワーク又は自然モデルのような標準的な推定モデルを備える。 - 特許庁
The probabilistic inference device includes an inference mechanism for performing inference processing by using a Bayesian network configuring a network by a plurality of node representing random variables and edges representing causality between the random variables between the nodes, wherein constraints are added to the combination of the values of the Bayesian network in order to reduce the degree of freedom of the combination of the values.例文帳に追加
確率変数を表す複数のノードと前記ノードの間の確率変数間の因果関係を表すエッジによりネットワークを構成したベイジアンネットを用いて推論処理を行う推論機構を備えた確率的推論装置において、ベイジアンネットの値の組み合わせに対して制約条件を加えることで、値の組み合わせの自由度を低減させる。 - 特許庁
This supposed load value is set to an estimated load power of the preceding adjustment, or to a value estimated by a neural network, or to a value estimated by the neural network and fuzzy inference.例文帳に追加
負荷仮定値は、前回の負荷電力量積算値、またはニューラルネットワークで予測した値、もしくはニューラルネットワークとファジィ推論で予測した値とする。 - 特許庁
To be specific, the inference algorithm is a Bayes network, the network offers evaluation to be carried out for a group of images and selects one image as a highlighted image.例文帳に追加
具体的には、推論アルゴリズムはベイズネットワークであり、そのネットワークは一群の画像に対して実行される評価を提供し、強調画像として一の画像を選択する。 - 特許庁
A fuzzy inference network (FIN) using a fuzzy self-organization map (FSOM) is constructed in a storage device by using learning data in each zone (S2).例文帳に追加
ゾーン毎に学習データを用いてファジィ自己組織化マップ(FSOM)を用いたファジィ推論ネットワーク(FIN)を記憶装置上に構築する(S2)。 - 特許庁
A fuzzy inference neural network (FINN) 8 is learnt the cluster 7 by the cluster 7, using data included in the each cluster 7 as a learning data, to constitute the estimation model.例文帳に追加
各クラスタ7に含まれるデータを学習データとして、各クラスタ7毎にファジィ推論ニューラルネットワーク(FINN)8を学習させて推定モデルを構築する。 - 特許庁
In a knowledge rule extracting apparatus, all of intermediate layer neurons M_1-M_N2 composing a fuzzy inference neural network (FINN) 10 are connected to any one of output layer neurons O_1-O_N3.例文帳に追加
ファジィ推論ネットワーク(FINN)10を構成する中間層ニューロンM_1 〜M_N2は、いずれも出力層ニューロンO_1 〜O_N3の中のいずれか一つに接続される。 - 特許庁
To provide a product relating information inference method to be the premise of new sales promotion in an electronic commercial transaction utilizing a network such as the Internet.例文帳に追加
インターネットなどのネットワークを利用した電子商取引における新規な販売促進の前提となるプロダクト関連情報推論方法を提供する。 - 特許庁
|
意味 | 例文 (21件) |
ピン留めアイコンをクリックすると単語とその意味を画面の右側に残しておくことができます。 |
![]() ログイン |
Weblio会員(無料)になると
![]() |


![]() | 「inference network」のお隣キーワード |
weblioのその他のサービス
![]() ログイン |
Weblio会員(無料)になると
![]() |