• /
  • EnglishEspañol日本語한국어Português
  • ログイン今すぐ開始

この機械翻訳は、参考として提供されています。

英語版と翻訳版に矛盾がある場合は、英語版が優先されます。詳細については、このページを参照してください。

問題を作成する

疎なデータ、欠落した測定基準、データギャップ

問題

Prometheus OpenMetrics integration for Docker or Kubernetes をインストールしましたが、New Relic の UI でデータがまばらであったり、メトリクスが欠けていたり、データにギャップがあることに気づきました。

解決

一部のメトリクスが定期的に収集されていない場合は、次のようにしてください。

  1. CPUがスロットルされていないか、コンテナに割り当てられているメモリが十分かどうかを確認します。

    コンテナに十分なリソースが用意されていない場合、サンプルの間隔を長くしてデータを送信することがあります。メモリの上限が低いと、統合が強制終了して再起動されることがあります。リソースの適切な制限と要求は、監視するターゲットの数や、各ターゲットが公開するメトリクスの数によって異なる場合があります。詳細については、大規模環境の構成に関するドキュメント( )の ガイドラインを参照してください。

  2. [* インテグレーションのログに以下のエラーメッセージが表示されていないか確認してください。

    { "err": "unexpected post response code: 413: Request Entity Too Large" }

    この問題は、一部のペイロードがドロップされる原因となります。現在、新しいリリースでは修正されています。この問題が発生した場合は、イメージを最新のものに更新してください。* 統合によって監視されている一部の /metrics エンドポイントがタイムアウトになるか、応答に数秒かかる場合、データのスクレイピングが遅くなる可能性があります。複数のエンドポイントが応答するのに非常に長い時間がかかる場合、統合のパフォーマンスが低下する可能性があります。これにより、断続的なデータの欠落が発生します。

    それらのエンドポイントを検出するために、実行します。

    SELECT average(nr_stats_integration_fetch_target_duration_seconds)
    FROM Metric where clusterName=’clustername' SINCE 30 MINUTES AGO FACET target LIMIT 30

    このクエリは、Prometheus OpenMetricsインテグレーションで公開されているデータを取得し、各エンドポイントの取得に要した時間を表示しています。

    待ち時間が 1sを超えるエンドポイントを修正するか、監視から除外して Prometheus スクレイピング ラベルを削除してください。* これらのエンドポイントを削除することが現実的ではなく、回答の遅延が避けられない場合は、より多くのワーカーを並行して実行するように統合を設定します。これにより、インテグレーションは同時により多くのエンドポイントを取得することができます。

    これを行うには、統合を最新バージョンに更新し、新しい構成オプション worker_threadsを適用します。4、6、8 から 16 まで、徐々に行うことをお勧めします。

    この回避策は問題を最小限に抑えるものであり、複数のエンドポイントが悪さをしている場合は、やはりパフォーマンスが低下します。また、ワーカーの数が増えるとメモリやCPUの消費量が増えるため、それに合わせてメモリやCPUを増やす必要があります。* 監視対象のすべてのエンドポイントのレイテンシーが低く、コンテナーが調整されていない場合は、次のクエリを実行します。これは、統合がすべてのターゲットを取得するのにかかる時間を確認し、構成された scrape_durationを超えている場合はデータを送信するのに役立ちます。

    SELECT latest(nr_stats_integration_process_duration_seconds) FROM Metric
    where clusterName=’clustername' SINCE 30 MINUTES AGO TIMESERIES

    まず、公開された最新のイメージに統合を更新します。次に、すべてのターゲットをスクレイピングするのに必要な時間を短縮するために、構成オプション worker_threadsを使用してワーカーの数を増やします。 r_stats_integration_process_duration_seconds が定義された scrape_durationに近づくまで、4 から 6、8、そして 16 まで徐々に行うことをお勧めします。メモリ消費量と CPU 使用率が増加することに注意してください。](/docs/integrations/prometheus-integrations/install-configure-openmetrics/configure-prometheus-openmetrics-integrations)

Copyright © 2024 New Relic株式会社。

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.