<__object__> v1 2022-02-08T15:52:38Z 192.168.65.4 10.1.15.96 BestEffort 10.1.15.96 Initialized 2022-02-08T15:52:38Z True Ready 2022-02-08T15:53:38Z True ContainersReady 2022-02-08T15:53:38Z True PodScheduled 2022-02-08T15:52:38Z True Running 0 dfuserver true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:53:13Z true docker://885b6f25ba67cb2a1fa7b454ae2b53547d9e70d0d7bc5528e0455d8de9578222 hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 dfuserver-temp-volume dfuserver-hpcctmp-volume dfuserver-configmap 420 dfuserver-configmap-volume data-pv data-localfile-hpcc-localfile-pvc mydropzone-pv mydropzone-localfile-hpcc-localfile-pvc 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-5mjgx 0 true 30 PreemptLowerPriority hpcc-default Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable File /var/lib/HPCCSystems IfNotPresent --config=/etc/config/dfuserver.yaml --daliServers=mydali hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 dfuserver /dev/termination-log dfuserver data-pv /var/lib/HPCCSystems/hpcc-data mydropzone-pv /var/lib/HPCCSystems/mydropzone dfuserver-temp-volume /tmp dfuserver-hpcctmp-volume /var/lib/HPCCSystems dfuserver-configmap-volume /etc/config kube-api-access-5mjgx /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/dfuserver.sentinel 1 10 cat /tmp/dfuserver.sentinel 1 3 1 10 cat /tmp/dfuserver.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-default default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 dfuserver-5894ccfd9f-xjqvr dfuserver-5894ccfd9f- default 777fc531b7d814d703c53f4735ac53ad99378f9ab2639f993bd79dad6c424481 true dfuserver-5894ccfd9f c0282fdc-a4c5-4ad4-a8e2-3a925de38722 apps/v1 true ReplicaSet 1042620 9b5e51c9-3dfd-4891-b931-ad060d6cc543 2022-02-08T15:52:38Z 8.6.0-closedown0 5894ccfd9f yes dfuserver 2022-02-08T15:52:39Z 192.168.65.4 10.1.15.95 BestEffort 10.1.15.95 Initialized 2022-02-08T15:52:39Z True Ready 2022-02-08T15:53:39Z True ContainersReady 2022-02-08T15:53:39Z True PodScheduled 2022-02-08T15:52:39Z True Running 0 eclqueries true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:53:08Z true docker://871b418b53113984f64f341a9875ce6dc5fd09a4304f7caeab4b3e66c434e6d9 hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 eclqueries-temp-volume eclqueries-hpcctmp-volume eclqueries-configmap 420 eclqueries-configmap-volume dll-pv dll-localfile-hpcc-localfile-pvc data-pv data-localfile-hpcc-localfile-pvc 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-ssg64 0 true 30 PreemptLowerPriority hpcc-esp-service Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable File /var/lib/HPCCSystems IfNotPresent --application=eclqueries --config=/etc/config/eclqueries.yaml --daliServers=mydali hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 eclqueries /dev/termination-log esp eclqueries-temp-volume /tmp eclqueries-hpcctmp-volume /var/lib/HPCCSystems eclqueries-configmap-volume /etc/config dll-pv /var/lib/HPCCSystems/queries data-pv /var/lib/HPCCSystems/hpcc-data kube-api-access-ssg64 /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/eclqueries.sentinel 1 10 cat /tmp/eclqueries.sentinel 1 3 1 10 cat /tmp/eclqueries.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-esp-service default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 eclqueries-86db456f56-mwg8b eclqueries-86db456f56- default 0417d3ee462d1133635cb2861722f354b347dc060a525d1ed2609a2177cba72d true eclqueries-86db456f56 d7d55e01-63dc-409d-bc80-723737da4da9 apps/v1 true ReplicaSet 1042658 6ab94c69-0aaa-49df-a239-a01b40046eb8 2022-02-08T15:52:39Z 8.6.0-closedown0 eclqueries 86db456f56 eclqueries yes eclqueries 2022-02-08T15:52:40Z 192.168.65.4 10.1.15.100 BestEffort 10.1.15.100 Initialized 2022-02-08T15:52:40Z True Ready 2022-02-08T15:53:40Z True ContainersReady 2022-02-08T15:53:40Z True PodScheduled 2022-02-08T15:52:40Z True Running 0 eclscheduler true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:53:21Z true docker://c37e4dbce6f38c48f4c0058cc633ea21bdf5aee29f11032ad22bd8139b0171cc hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 eclscheduler-temp-volume eclscheduler-hpcctmp-volume eclscheduler-configmap 420 eclscheduler-configmap-volume 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-grhwn 0 true 600 PreemptLowerPriority hpcc-default Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable File /var/lib/HPCCSystems IfNotPresent --config=/etc/config/eclscheduler.yaml --daliServers=mydali hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 eclscheduler /dev/termination-log eclscheduler eclscheduler-temp-volume /tmp eclscheduler-hpcctmp-volume /var/lib/HPCCSystems eclscheduler-configmap-volume /etc/config kube-api-access-grhwn /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/eclscheduler.sentinel 1 10 cat /tmp/eclscheduler.sentinel 1 3 1 10 cat /tmp/eclscheduler.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-default default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 eclscheduler-6498779bdf-shhkn eclscheduler-6498779bdf- default 7d5749618b00c4a6c95279781462d960d3b371e55e7f3ae4a4c49b9df1433bc0 true eclscheduler-6498779bdf b7940b48-a19e-4646-b74a-83db53afdc5b apps/v1 true ReplicaSet 1042632 4719b54c-758c-462a-a01e-407fc6cf4409 2022-02-08T15:52:40Z 8.6.0-closedown0 6498779bdf no yes eclscheduler 2022-02-08T15:52:40Z 192.168.65.4 10.1.15.104 BestEffort 10.1.15.104 Initialized 2022-02-08T15:52:40Z True Ready 2022-02-08T15:53:40Z True ContainersReady 2022-02-08T15:53:40Z True PodScheduled 2022-02-08T15:52:40Z True Running 0 eclservices true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:53:29Z true docker://07bea748bdab9f5bce0aa77b3b7549d0b54d7b74900c1b9041570c495e4646f0 hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 eclservices-temp-volume eclservices-hpcctmp-volume eclservices-configmap 420 eclservices-configmap-volume dll-pv dll-localfile-hpcc-localfile-pvc data-pv data-localfile-hpcc-localfile-pvc 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-58f68 0 true 30 PreemptLowerPriority hpcc-esp-service Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable File /var/lib/HPCCSystems IfNotPresent --application=eclservices --config=/etc/config/eclservices.yaml --daliServers=mydali hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 eclservices /dev/termination-log esp eclservices-temp-volume /tmp eclservices-hpcctmp-volume /var/lib/HPCCSystems eclservices-configmap-volume /etc/config dll-pv /var/lib/HPCCSystems/queries data-pv /var/lib/HPCCSystems/hpcc-data kube-api-access-58f68 /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/eclservices.sentinel 1 10 cat /tmp/eclservices.sentinel 1 3 1 10 cat /tmp/eclservices.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-esp-service default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 eclservices-6dccb76c58-x7gt6 eclservices-6dccb76c58- default fab08dd966618c5f6a11974a75e32da516809957bb6236bc80a6226672794dbd true eclservices-6dccb76c58 9e6464b8-d57b-4e1a-b243-d88d29c378ca apps/v1 true ReplicaSet 1042644 a2378f6e-91d2-4a53-a9cd-63f2c064a76a 2022-02-08T15:52:40Z 8.6.0-closedown0 eclservices 6dccb76c58 eclservices yes eclservices 2022-02-08T15:52:39Z 192.168.65.4 10.1.15.101 BestEffort 10.1.15.101 Initialized 2022-02-08T15:52:39Z True Ready 2022-02-08T15:53:39Z True ContainersReady 2022-02-08T15:53:39Z True PodScheduled 2022-02-08T15:52:39Z True Running 0 eclwatch true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:53:21Z true docker://11cf30ffc7884319d049c25cbd7e94a56d0b5e3a0f652b3daf5ccea9fa46e5df hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 eclwatch-temp-volume eclwatch-hpcctmp-volume eclwatch-configmap 420 eclwatch-configmap-volume dll-pv dll-localfile-hpcc-localfile-pvc data-pv data-localfile-hpcc-localfile-pvc mydropzone-pv mydropzone-localfile-hpcc-localfile-pvc 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-bflbp 0 true 30 PreemptLowerPriority hpcc-esp-service Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable File /var/lib/HPCCSystems IfNotPresent --application=eclwatch --config=/etc/config/eclwatch.yaml --daliServers=mydali hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 eclwatch /dev/termination-log esp eclwatch-temp-volume /tmp eclwatch-hpcctmp-volume /var/lib/HPCCSystems eclwatch-configmap-volume /etc/config dll-pv /var/lib/HPCCSystems/queries data-pv /var/lib/HPCCSystems/hpcc-data mydropzone-pv /var/lib/HPCCSystems/mydropzone kube-api-access-bflbp /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/eclwatch.sentinel 1 10 cat /tmp/eclwatch.sentinel 1 3 1 10 cat /tmp/eclwatch.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-esp-service default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 eclwatch-78dfddf44-x9kv7 eclwatch-78dfddf44- default 2e0e327b0b402179572f9776633e5c8d906a9b9b0699c0e0a712958455212036 true eclwatch-78dfddf44 e5e801e9-59fa-4a62-b117-f3caba8da6ad apps/v1 true ReplicaSet 1042649 69352bd9-96e9-4767-b26d-a96a5ade313d 2022-02-08T15:52:39Z 8.6.0-closedown0 eclwatch 78dfddf44 eclwatch yes eclwatch 2021-10-21T15:24:44Z 192.168.65.4 47 configure-sysctl docker-pullable://docker.elastic.co/elasticsearch/elasticsearch@sha256:4999c5f75c1d0d69754902d3975dd36875cc2eb4a06d7fdceaa8ec0e71a81dfa 2022-02-08T14:03:56Z 2022-02-08T14:03:56Z Completed docker://9b019accf926c1b63dc912cc5eddbd32bde08350f75dcfc34680b426a8cbec0c 0 true docker://9b019accf926c1b63dc912cc5eddbd32bde08350f75dcfc34680b426a8cbec0c docker.elastic.co/elasticsearch/elasticsearch:7.12.0 10.1.15.63 Burstable 10.1.15.63 Initialized 2021-10-21T15:26:26Z True Ready 2022-02-08T14:06:18Z True ContainersReady 2022-02-08T14:06:18Z True PodScheduled 2021-10-21T15:24:44Z True Running 47 elasticsearch true 2022-02-07T18:31:00Z 2022-02-08T14:02:22Z Error docker://1d86ce60726f323fe6252e59dee360def023692949a86ea0137dc98c5f358b20 255 docker-pullable://docker.elastic.co/elasticsearch/elasticsearch@sha256:4999c5f75c1d0d69754902d3975dd36875cc2eb4a06d7fdceaa8ec0e71a81dfa 2022-02-08T14:03:56Z true docker://4f6eb4613ef06d88bf73278151b9a0547203872d5c8b333a9d91456ca758204b docker.elastic.co/elasticsearch/elasticsearch:7.12.0 elasticsearch-master elasticsearch-master-elasticsearch-master-0 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-2jmsg elasticsearch-master-headless elasticsearch-master-0 0 true 1 kubernetes.io/hostname In app elasticsearch-master 120 PreemptLowerPriority kube-api-access-2jmsg /var/run/secrets/kubernetes.io/serviceaccount true configure-sysctl /dev/termination-log sysctl -w vm.max_map_count=262144 File IfNotPresent 0 true docker.elastic.co/elasticsearch/elasticsearch:7.12.0 default elasticsearch-master /usr/share/elasticsearch/data kube-api-access-2jmsg /var/run/secrets/kubernetes.io/serviceaccount true elasticsearch /dev/termination-log bash -c PIPELINE_NAME=hpccpipeline ES_URL=http://localhost:9200 PIPELINE_REQ_PATH=_ingest/pipeline [ -z ${WAIT_ES_READY_IN_SEC} ] && WAIT_ES_READY_IN_SEC=120 END_TIME=$(expr $(date +%s) \+ ${WAIT_ES_READY_IN_SEC}) START_FILE=/tmp/.es_start_file while [[ $(date +%s) -le ${END_TIME} ]]; do [ -f "${START_FILE}" ] && break sleep 1 done if [ -f "${START_FILE}" ]; then echo 'Cluster is ready to add hpccpipeline' else echo 'Cluster health check timeout. Will try to add hpccpipeline anyway.' fi # Need wait elasticsearch container ready to test the hostname with ordinal # Only add pipeline in the first elasticsearch master if [ ${HOSTNAME##*-} -eq 0 ]; then curl -s -X PUT "$ES_URL/$PIPELINE_REQ_PATH/$PIPELINE_NAME/" -H 'Content-Type: application/json' \ -d'{ "description": "Parses and formats HPCC Systems component log entries", "processors": [{ "grok": { "field": "message", "patterns": ["%{BASE16NUM:hpcc.log.sequence}\\s+%{HPCC_LOG_AUDIENCE:hpcc.log.audience}\\s+%{HPCC_LOG_CLASS:hpcc.log.class}\\s+%{TIMESTAMP_ISO8601:hpcc.log.timestamp}\\s+%{POSINT:hpcc.log.procid}\\s+%{POSINT:hpcc.log.threadid}\\s+%{HPCC_LOG_WUID:hpcc.log.jobid}\\s+%{QUOTEDSTRING:hpcc.log.message}"], "pattern_definitions": { "HPCC_LOG_WUID": "([A-Z][0-9]{8}-[0-9]{6})|(UNK)", "HPCC_LOG_CLASS": "DIS|ERR|WRN|INF|PRO|MET|UNK", "HPCC_LOG_AUDIENCE": "OPR|USR|PRG|AUD|UNK" } } }], "on_failure": [{ "set": { "field": "error.message", "value": "{{ _ingest.on_failure_message }}" } }] }' rc=$? if [ ${rc} -eq 0 ]; then echo 'Successfully added hpccpipeline !' else echo 'Failed to add hpccpipeline.' exit $rc fi fi node.name v1 metadata.name cluster.initial_master_nodes elasticsearch-master-0, discovery.seed_hosts elasticsearch-master-headless cluster.name elasticsearch network.host 0.0.0.0 ES_JAVA_OPTS -Xmx1g -Xms1g node.data true node.ingest true node.master true node.ml true node.remote_cluster_client true WAIT_ES_READY_IN_SEC 120 10 5 10 sh -c #!/usr/bin/env bash -e # If the node is starting up wait for the cluster to be ready (request params: "local=true" ) # Once it has started only check that the node itself is responding START_FILE=/tmp/.es_start_file # Disable nss cache to avoid filling dentry cache when calling curl # This is required with Elasticsearch Docker using nss < 3.52 export NSS_SDB_USE_CACHE=no http () { local path="${1}" local args="${2}" set -- -XGET -s if [ "$args" != "" ]; then set -- "$@" $args fi if [ -n "${ELASTIC_USERNAME}" ] && [ -n "${ELASTIC_PASSWORD}" ]; then set -- "$@" -u "${ELASTIC_USERNAME}:${ELASTIC_PASSWORD}" fi curl --output /dev/null -k "$@" "http://127.0.0.1:9200${path}" } if [ -f "${START_FILE}" ]; then echo 'Elasticsearch is already running, lets check the node is healthy' HTTP_CODE=$(http "/" "-w %{http_code}") RC=$? if [[ ${RC} -ne 0 ]]; then echo "curl --output /dev/null -k -XGET -s -w '%{http_code}' \${BASIC_AUTH} http://127.0.0.1:9200/ failed with RC ${RC}" exit ${RC} fi # ready if HTTP code 200, 503 is tolerable if ES version is 6.x if [[ ${HTTP_CODE} == "200" ]]; then exit 0 elif [[ ${HTTP_CODE} == "503" && "7" == "6" ]]; then exit 0 else echo "curl --output /dev/null -k -XGET -s -w '%{http_code}' \${BASIC_AUTH} http://127.0.0.1:9200/ failed with HTTP code ${HTTP_CODE}" exit 1 fi else echo 'Waiting for elasticsearch cluster to become ready (request params: "local=true" )' if http "/_cluster/health?local=true" "--fail" ; then touch ${START_FILE} exit 0 else echo 'Cluster is not yet ready (request params: "local=true" )' exit 1 fi fi 3 3 2Gi 1 2Gi 1 IfNotPresent 9200 http TCP 9300 transport TCP File true ALL 1000 docker.elastic.co/elasticsearch/elasticsearch:7.12.0 Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable default default-scheduler ClusterFirst 1000 1000 docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> Update v1 kube-scheduler FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 elasticsearch-master-0 elasticsearch-master- default 7fdbab29-31a5-4f91-a479-f012ebdb9249 true elasticsearch-master 42991ff7-004e-47e5-85a1-3e72aa4af05f apps/v1 true StatefulSet 1033202 2021-10-21T15:24:42Z elasticsearch elasticsearch-master HPCC myelastic elasticsearch-master-0 elasticsearch-master-655fb4dc8 2022-02-08T15:52:38Z 192.168.65.4 10.1.15.91 BestEffort 10.1.15.91 Initialized 2022-02-08T15:52:38Z True Ready 2022-02-08T15:53:38Z True ContainersReady 2022-02-08T15:53:38Z True PodScheduled 2022-02-08T15:52:38Z True Running 0 esdl-sandbox true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:52:54Z true docker://055f59a0f2d188a4449db65e9e233f90b3adc14f3299d94adb225493b7e1aecb hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 esdl-sandbox-temp-volume esdl-sandbox-hpcctmp-volume esdl-sandbox-configmap 420 esdl-sandbox-configmap-volume dll-pv dll-localfile-hpcc-localfile-pvc data-pv data-localfile-hpcc-localfile-pvc 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-ppktm 0 true 30 PreemptLowerPriority hpcc-esp-service Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable File /var/lib/HPCCSystems IfNotPresent --application=esdl-sandbox --config=/etc/config/esdl-sandbox.yaml --daliServers=mydali hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 esdl-sandbox /dev/termination-log esp esdl-sandbox-temp-volume /tmp esdl-sandbox-hpcctmp-volume /var/lib/HPCCSystems esdl-sandbox-configmap-volume /etc/config dll-pv /var/lib/HPCCSystems/queries data-pv /var/lib/HPCCSystems/hpcc-data kube-api-access-ppktm /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/esdl-sandbox.sentinel 1 10 cat /tmp/esdl-sandbox.sentinel 1 3 1 10 cat /tmp/esdl-sandbox.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-esp-service default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 esdl-sandbox-dd445cd8d-znnfz esdl-sandbox-dd445cd8d- default e3aff45c3984af5f38873d8ea8eca8be74e7c14856411d8d7426ca3781350c09 true esdl-sandbox-dd445cd8d d36b74d3-3123-4f4f-9976-2367586cee17 apps/v1 true ReplicaSet 1042610 0a40ab0a-b861-41cd-97a1-27ccd506084a 2022-02-08T15:52:38Z 8.6.0-closedown0 esdl-sandbox dd445cd8d esdl-sandbox yes esdl-sandbox 2022-02-08T15:52:38Z 192.168.65.4 10.1.15.94 BestEffort 10.1.15.94 Initialized 2022-02-08T15:52:38Z True Ready 2022-02-08T15:53:38Z True ContainersReady 2022-02-08T15:53:38Z True PodScheduled 2022-02-08T15:52:38Z True Running 0 hthor true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:53:06Z true docker://da02fc509bd568b267c1be7ebd3912abd8ebbf2850b4eb3e718f7532c549b510 hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 hthor-temp-volume hthor-hpcctmp-volume hthor-configmap 420 hthor-configmap-volume dll-pv dll-localfile-hpcc-localfile-pvc data-pv data-localfile-hpcc-localfile-pvc mydropzone-pv mydropzone-localfile-hpcc-localfile-pvc 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-7zccw 0 true 30 PreemptLowerPriority hpcc-agent Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable File /var/lib/HPCCSystems IfNotPresent --config=/etc/config/hthor.yaml --daliServers=mydali hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 hthor /dev/termination-log agentexec hthor-temp-volume /tmp hthor-hpcctmp-volume /var/lib/HPCCSystems hthor-configmap-volume /etc/config dll-pv /var/lib/HPCCSystems/queries data-pv /var/lib/HPCCSystems/hpcc-data mydropzone-pv /var/lib/HPCCSystems/mydropzone kube-api-access-7zccw /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/hthor.sentinel 1 10 cat /tmp/hthor.sentinel 1 3 1 10 cat /tmp/hthor.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-agent default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 hthor-7546dc75cd-hxgrb hthor-7546dc75cd- default 41bb787c4c98ff833cba2c1922e5fabdb3e27d6c942d698ede7cbfe43761d652 true hthor-7546dc75cd 99cd9c4a-919a-4287-81d5-500c4b92d000 apps/v1 true ReplicaSet 1042616 a13f08ab-de53-42ff-b2ee-58a0312ed6bc 2022-02-08T15:52:38Z 8.6.0-closedown0 7546dc75cd no yes hthor 2021-09-26T13:44:42Z 192.168.65.4 10.1.15.39 BestEffort 10.1.15.39 Initialized 2021-09-26T13:44:42Z True Ready 2022-02-08T14:03:19Z True ContainersReady 2022-02-08T14:03:19Z True PodScheduled 2021-09-26T13:44:42Z True Running 56 hello true 2022-02-07T18:31:27Z 2022-02-08T14:02:22Z Error docker://1186ee6e9e816f709c701448b40e5134ba6a0d3fbb9255f15dc35be9550a7385 255 docker-pullable://cloudecho/hello@sha256:f76ede067ab954cc9168ad25a4fd74cfcd9fe9b2f312f6df2669e750265ab372 2022-02-08T14:03:18Z true docker://7fb4fa42d002c2d7f8be849ca14cc1adefb006d06ecbd6668341125ad5542ea8 cloudecho/hello:0.1.0 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-bgztm 0 true 30 PreemptLowerPriority default Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable 1 10 1 / http HTTP 3 hello /dev/termination-log kube-api-access-bgztm /var/run/secrets/kubernetes.io/serviceaccount true File 1 10 1 / http HTTP 3 IfNotPresent 8080 http TCP cloudecho/hello:0.1.0 default default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 my-hello-7bfd984465-b28xw my-hello-7bfd984465- default a95c4165-0482-4cab-8e6f-862c1fee4718 true my-hello-7bfd984465 17f85d75-b8ce-4a9d-8625-9505658a8974 apps/v1 true ReplicaSet 1032904 2021-09-26T13:44:42Z hello 7bfd984465 my-hello 2022-02-08T15:52:38Z 192.168.65.4 10.1.15.93 BestEffort 10.1.15.93 Initialized 2022-02-08T15:52:38Z True Ready 2022-02-08T15:53:18Z True ContainersReady 2022-02-08T15:53:18Z True PodScheduled 2022-02-08T15:52:38Z True Running 0 mydali true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:53:03Z true docker://cf3de7ee2cc0483033a1517ebec64b9efd54d02f811e950e3636525ad4ab88dc hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 0 sasha-coalescer true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:53:03Z true docker://273c8689b20eef4327c3e83fe039ba7b3ffe34f1c1bf8e2f33cf01ee27b5e24f hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 mydali-temp-volume mydali-hpcctmp-volume mydali-configmap 420 mydali-configmap-volume sasha-coalescer-temp-volume sasha-coalescer-hpcctmp-volume sasha-coalescer-configmap 420 sasha-coalescer-configmap-volume dali-pv dali-localfile-hpcc-localfile-pvc 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-vn89n 0 true 30 PreemptLowerPriority hpcc-default Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable File /var/lib/HPCCSystems IfNotPresent --config=/etc/config/mydali.yaml hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 mydali /dev/termination-log daserver mydali-temp-volume /tmp mydali-hpcctmp-volume /var/lib/HPCCSystems mydali-configmap-volume /etc/config dali-pv /var/lib/HPCCSystems/dalistorage kube-api-access-vn89n /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/mydali.sentinel 1 10 cat /tmp/mydali.sentinel 1 3 1 10 cat /tmp/mydali.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false File /var/lib/HPCCSystems IfNotPresent --config=/etc/config/sasha-coalescer.yaml --service=coalescer --daliServers=mydali hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 sasha-coalescer /dev/termination-log saserver sasha-coalescer-temp-volume /tmp sasha-coalescer-hpcctmp-volume /var/lib/HPCCSystems sasha-coalescer-configmap-volume /etc/config dali-pv /var/lib/HPCCSystems/dalistorage kube-api-access-vn89n /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/sasha-coalescer.sentinel 1 10 cat /tmp/sasha-coalescer.sentinel 1 3 1 10 cat /tmp/sasha-coalescer.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-default default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 mydali-647974c47c-2cbfp mydali-647974c47c- default e5b9ecaa-4fb7-4674-ab82-eeca96484125 true mydali-647974c47c 8e78df12-075a-48be-9525-9de50ea42124 apps/v1 true ReplicaSet 1042493 2022-02-08T15:52:38Z 8.6.0-closedown0 dali 647974c47c mydali mydali 2022-02-08T15:52:40Z 192.168.65.4 10.1.15.106 BestEffort 10.1.15.106 Initialized 2022-02-08T15:52:40Z True Ready 2022-02-08T15:53:50Z True ContainersReady 2022-02-08T15:53:50Z True PodScheduled 2022-02-08T15:52:40Z True Running 0 myeclccserver true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:53:33Z true docker://f91a8e3e1a99497148bfcf72c923ef4ae25e9daa094346f47978760bb0bda717 hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 myeclccserver-temp-volume myeclccserver-hpcctmp-volume myeclccserver-configmap 420 myeclccserver-configmap-volume dll-pv dll-localfile-hpcc-localfile-pvc hpccbundles 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-24j28 0 true 600 PreemptLowerPriority hpcc-agent Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable File /tmp IfNotPresent --config=/etc/config/myeclccserver.yaml --daliServers=mydali hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 myeclccserver /dev/termination-log eclccserver myeclccserver-temp-volume /tmp myeclccserver-hpcctmp-volume /var/lib/HPCCSystems myeclccserver-configmap-volume /etc/config dll-pv /var/lib/HPCCSystems/queries hpccbundles /home/hpcc/.HPCCSystems kube-api-access-24j28 /var/run/secrets/kubernetes.io/serviceaccount true ECLCC_ECLREPO_PATH /var/lib/HPCCSystems/queries SENTINEL /tmp/myeclccserver.sentinel 1 10 cat /tmp/myeclccserver.sentinel 1 3 1 10 cat /tmp/myeclccserver.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-agent default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 myeclccserver-845684c775-785rf myeclccserver-845684c775- default 1433382b394bc1a2d2beb2bbc58b022411c85dd7ba2928c3f71f2277a4a33faf true myeclccserver-845684c775 165dd3af-dfa8-45d6-84fb-109cf87b703e apps/v1 true ReplicaSet 1042676 830718c7-452c-43c2-bce0-c1b8fa49dcf9 2022-02-08T15:52:39Z 8.6.0-closedown0 845684c775 no yes myeclccserver 2021-10-21T15:24:42Z 192.168.65.4 10.1.15.48 Burstable 10.1.15.48 Initialized 2021-10-21T15:24:42Z True Ready 2022-02-08T14:06:27Z True ContainersReady 2022-02-08T14:06:27Z True PodScheduled 2021-10-21T15:24:42Z True Running 47 filebeat true 2022-02-07T18:31:13Z 2022-02-08T14:02:22Z Error docker://f65041935f42f8a2940894bf0f7a9b2bf4e8b7a6526b7982b46cae42545dee58 255 docker-pullable://docker.elastic.co/beats/filebeat@sha256:979e74d11e8725d16ae052741ec020adb26716d439f5791615ba45a6a178cd3e 2022-02-08T14:03:26Z true docker://175b0789a7600e8353eba19033ff8fae4062a64c13d503c5ecb0f119f8de5a39 docker.elastic.co/beats/filebeat:7.12.0 myelastic-filebeat-config 384 filebeat-config data DirectoryOrCreate /var/lib/myelastic-filebeat-default-data varlibdockercontainers /var/lib/docker/containers varlog /var/log varrundockersock /var/run/docker.sock 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-p4vgs 0 true In metadata.name docker-desktop 30 PreemptLowerPriority myelastic-filebeat Exists node.kubernetes.io/not-ready NoExecute Exists node.kubernetes.io/unreachable NoExecute Exists node.kubernetes.io/disk-pressure NoSchedule Exists node.kubernetes.io/memory-pressure NoSchedule Exists node.kubernetes.io/pid-pressure NoSchedule Exists node.kubernetes.io/unschedulable NoSchedule 10 5 10 sh -c #!/usr/bin/env bash -e curl --fail 127.0.0.1:5066 1 3 filebeat docker.elastic.co/beats/filebeat:7.12.0 /dev/termination-log filebeat-config /usr/share/filebeat/filebeat.yml true filebeat.yml data /usr/share/filebeat/data varlibdockercontainers /var/lib/docker/containers true varlog /var/log true varrundockersock /var/run/docker.sock true kube-api-access-p4vgs /var/run/secrets/kubernetes.io/serviceaccount true POD_NAMESPACE v1 metadata.namespace NODE_NAME v1 spec.nodeName 10 5 10 sh -c #!/usr/bin/env bash -e filebeat test output 1 3 200Mi 1 100Mi 100m IfNotPresent File 0 false -e -E http.enabled=true myelastic-filebeat default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 myelastic-filebeat-46x4s myelastic-filebeat- default 3089bf5b18bde51db4f16068a542c2409c92d25c46c9b7025d9a66e368a30eb true myelastic-filebeat 3e50ce9e-6217-4064-99db-0403008b69b9 apps/v1 true DaemonSet 1033222 2b9f399f-127f-46af-a3fc-c12e3db44aa9 2021-10-21T15:24:42Z myelastic 1 6459878757 filebeat-7.12.0 myelastic-filebeat HPCC Helm 2021-10-21T15:24:42Z 192.168.65.4 10.1.15.46 Guaranteed 10.1.15.46 Initialized 2021-10-21T15:24:42Z True Ready 2022-02-08T14:06:44Z True ContainersReady 2022-02-08T14:06:44Z True PodScheduled 2021-10-21T15:24:42Z True Running 48 kibana true 2022-02-07T18:31:07Z 2022-02-08T14:02:22Z Error docker://42a88d9dafa321c4c892341e55b4b44c7552da4e27021a31b1a93054e156f4e7 255 docker-pullable://docker.elastic.co/kibana/kibana@sha256:f002ce2456e37a45507e542a4791d87a0bedf7d7ec468d6a7aef85cd233eecc9 2022-02-08T14:03:26Z true docker://680dafc3d726b759d01bf0db4c479197263ab86a197ee5141f4adaa7502c5117 docker.elastic.co/kibana/kibana:7.12.0 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-v94lv 0 true 30 PreemptLowerPriority default Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable kube-api-access-v94lv /var/run/secrets/kubernetes.io/serviceaccount true kibana /dev/termination-log bash -c KIBANA_URL=http://localhost:5601 [ -z ${WAIT_KIBANA_READY_IN_SEC} ] && WAIT_KIBANA_READY_IN_SEC=180 END_TIME=$(expr $(date +%s) \+ ${WAIT_KIBANA_READY_IN_SEC}) while [[ "$(curl -s -o /dev/null -w '%{http_code}\n' $KIBANA_URL)" != "200" ]]; do echo "\nKibana not ready..." [ $(date +%s) -ge ${END_TIME} ] && break sleep 1 done httpcode=$(curl -s -o /dev/null -I -w "%{http_code}" -X GET "$KIBANA_URL/api/index_patterns/index_pattern/hpcc-filebeat-pattern" -H 'kbn-xsrf: true') if [ ${httpcode} -eq 200 ]; then echo 'Pre-existing hpcc-filebeat-pattern index pattern detected, will not re-create.' elif [ ${httpcode} -eq 404 ]; then echo 'hpcc-filebeat-pattern not found, will create index pattern!' httpcode=$(curl -s -w "%{http_code}" -X POST "$KIBANA_URL/api/saved_objects/index-pattern/hpcc-filebeat-pattern" -H 'kbn-xsrf: true' -H 'Content-Type: application/json' \ -d'{ "attributes":{"title":"filebeat*","timeFieldName":"@timestamp"}}') echo Index pattern creation response: ${httpcode} else echo Failed to retrieve index pattern information from Kibana: ${httpcode} exit ${httpcode} fi ELASTICSEARCH_HOSTS http://elasticsearch-master:9200 SERVER_HOST 0.0.0.0 WAIT_KIBANA_READY_IN_SEC 180 10 5 10 sh -c #!/usr/bin/env bash -e # Disable nss cache to avoid filling dentry cache when calling curl # This is required with Kibana Docker using nss < 3.52 export NSS_SDB_USE_CACHE=no http () { local path="${1}" set -- -XGET -s --fail -L if [ -n "${ELASTICSEARCH_USERNAME}" ] && [ -n "${ELASTICSEARCH_PASSWORD}" ]; then set -- "$@" -u "${ELASTICSEARCH_USERNAME}:${ELASTICSEARCH_PASSWORD}" fi STATUS=$(curl --output /dev/null --write-out "%{http_code}" -k "$@" "http://localhost:5601${path}") if [[ "${STATUS}" -eq 200 ]]; then exit 0 fi echo "Error: Got HTTP code ${STATUS} but expected a 200" exit 1 } http "/app/kibana" 3 3 2Gi 1 2Gi 1 IfNotPresent 5601 TCP File true ALL 1000 docker.elastic.co/kibana/kibana:7.12.0 default default-scheduler ClusterFirst 1000 docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 myelastic-kibana-b5b6cb7d5-gzpsm myelastic-kibana-b5b6cb7d5- default 97382d10-f744-4923-b289-93386d535dfd true myelastic-kibana-b5b6cb7d5 36009460-cc08-499a-b186-db9c610e1b83 apps/v1 true ReplicaSet 1033245 2021-10-21T15:24:42Z HPCC kibana b5b6cb7d5 myelastic 2022-02-08T15:52:38Z 192.168.65.4 10.1.15.88 BestEffort 10.1.15.88 Initialized 2022-02-08T15:52:38Z True Ready 2022-02-08T15:54:08Z True ContainersReady 2022-02-08T15:54:08Z True PodScheduled 2022-02-08T15:52:38Z True Running 0 roxie-agent-1 true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:52:49Z true docker://904f3537ae155c9f2976aebaf4d0077b5a0eedb94c343c7af19cd6c9c7380e13 hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 roxie-temp-volume roxie-hpcctmp-volume roxie-configmap 420 roxie-configmap-volume dll-pv dll-localfile-hpcc-localfile-pvc data-pv data-localfile-hpcc-localfile-pvc mydropzone-pv mydropzone-localfile-hpcc-localfile-pvc 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-jxzcn 0 true 90 PreemptLowerPriority hpcc-default Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable testsocket . control:closedown File /var/lib/HPCCSystems IfNotPresent 9876 roxie TCP --config=/etc/config/roxie.yaml --daliServers=mydali --channels=1 --server=true hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 roxie-agent-1 /dev/termination-log roxie roxie-temp-volume /tmp roxie-hpcctmp-volume /var/lib/HPCCSystems roxie-configmap-volume /etc/config dll-pv /var/lib/HPCCSystems/queries data-pv /var/lib/HPCCSystems/hpcc-data mydropzone-pv /var/lib/HPCCSystems/mydropzone kube-api-access-jxzcn /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/roxie.sentinel 1 10 cat /tmp/roxie.sentinel.ready 1 3 1 10 cat /tmp/roxie.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-default default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 roxie-agent-1-65c95b984b-xvd8s roxie-agent-1-65c95b984b- default c03ef51665aad56971a2b3f6dbbbb780bff9976526131cb99037d9d798acfe8e true roxie-agent-1-65c95b984b be6f0789-4a70-4aba-9291-f23e73238a8f apps/v1 true ReplicaSet 1042704 c1a7f6fa-7cf8-484c-8f37-79417337a310 2022-02-08T15:52:38Z roxie yes yes roxie-agent-1 8.6.0-closedown0 65c95b984b roxie-server 2022-02-08T15:52:38Z 192.168.65.4 10.1.15.90 BestEffort 10.1.15.90 Initialized 2022-02-08T15:52:38Z True Ready 2022-02-08T15:53:58Z True ContainersReady 2022-02-08T15:53:58Z True PodScheduled 2022-02-08T15:52:38Z True Running 0 roxie-agent-1 true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:52:52Z true docker://71cfde371f560f535b5078b81dab5038a07f74a77230ab3084c1adc1442ee49b hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 roxie-temp-volume roxie-hpcctmp-volume roxie-configmap 420 roxie-configmap-volume dll-pv dll-localfile-hpcc-localfile-pvc data-pv data-localfile-hpcc-localfile-pvc mydropzone-pv mydropzone-localfile-hpcc-localfile-pvc 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-2rjn2 0 true 90 PreemptLowerPriority hpcc-default Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable testsocket . control:closedown File /var/lib/HPCCSystems IfNotPresent 9876 roxie TCP --config=/etc/config/roxie.yaml --daliServers=mydali --channels=1 --server=true hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 roxie-agent-1 /dev/termination-log roxie roxie-temp-volume /tmp roxie-hpcctmp-volume /var/lib/HPCCSystems roxie-configmap-volume /etc/config dll-pv /var/lib/HPCCSystems/queries data-pv /var/lib/HPCCSystems/hpcc-data mydropzone-pv /var/lib/HPCCSystems/mydropzone kube-api-access-2rjn2 /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/roxie.sentinel 1 10 cat /tmp/roxie.sentinel.ready 1 3 1 10 cat /tmp/roxie.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-default default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 roxie-agent-1-65c95b984b-zrn4x roxie-agent-1-65c95b984b- default c03ef51665aad56971a2b3f6dbbbb780bff9976526131cb99037d9d798acfe8e true roxie-agent-1-65c95b984b be6f0789-4a70-4aba-9291-f23e73238a8f apps/v1 true ReplicaSet 1042683 07d4b506-0d31-4ea8-974c-3681e5bc4f11 2022-02-08T15:52:38Z roxie yes yes roxie-agent-1 8.6.0-closedown0 65c95b984b roxie-server 2022-02-08T15:52:38Z 192.168.65.4 10.1.15.99 BestEffort 10.1.15.99 Initialized 2022-02-08T15:52:38Z True Ready 2022-02-08T15:53:58Z True ContainersReady 2022-02-08T15:53:58Z True PodScheduled 2022-02-08T15:52:38Z True Running 0 roxie-agent-2 true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:53:18Z true docker://1d1ce9458d8212a562154fa62fd09b390cea6f57349f4a42fca2c7b665e668bc hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 roxie-temp-volume roxie-hpcctmp-volume roxie-configmap 420 roxie-configmap-volume dll-pv dll-localfile-hpcc-localfile-pvc data-pv data-localfile-hpcc-localfile-pvc mydropzone-pv mydropzone-localfile-hpcc-localfile-pvc 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-5t8t7 0 true 90 PreemptLowerPriority hpcc-default Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable testsocket . control:closedown File /var/lib/HPCCSystems IfNotPresent 9876 roxie TCP --config=/etc/config/roxie.yaml --daliServers=mydali --channels=2 --server=true hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 roxie-agent-2 /dev/termination-log roxie roxie-temp-volume /tmp roxie-hpcctmp-volume /var/lib/HPCCSystems roxie-configmap-volume /etc/config dll-pv /var/lib/HPCCSystems/queries data-pv /var/lib/HPCCSystems/hpcc-data mydropzone-pv /var/lib/HPCCSystems/mydropzone kube-api-access-5t8t7 /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/roxie.sentinel 1 10 cat /tmp/roxie.sentinel.ready 1 3 1 10 cat /tmp/roxie.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-default default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 roxie-agent-2-7bd66c4c89-wqzq2 roxie-agent-2-7bd66c4c89- default c03ef51665aad56971a2b3f6dbbbb780bff9976526131cb99037d9d798acfe8e true roxie-agent-2-7bd66c4c89 7a151de2-6549-4999-a9e3-a81fae4298a0 apps/v1 true ReplicaSet 1042689 87921a93-07a4-4365-9499-4f0c230989a4 2022-02-08T15:52:38Z roxie yes yes roxie-agent-2 8.6.0-closedown0 7bd66c4c89 roxie-server 2022-02-08T15:52:38Z 192.168.65.4 10.1.15.87 BestEffort 10.1.15.87 Initialized 2022-02-08T15:52:38Z True Ready 2022-02-08T15:54:08Z True ContainersReady 2022-02-08T15:54:08Z True PodScheduled 2022-02-08T15:52:38Z True Running 0 roxie-agent-2 true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:52:46Z true docker://44ea145d5b349962ca138e061a6be12f8be4c3bdafb94d33aa7af5980ae565cb hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 roxie-temp-volume roxie-hpcctmp-volume roxie-configmap 420 roxie-configmap-volume dll-pv dll-localfile-hpcc-localfile-pvc data-pv data-localfile-hpcc-localfile-pvc mydropzone-pv mydropzone-localfile-hpcc-localfile-pvc 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-6t24q 0 true 90 PreemptLowerPriority hpcc-default Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable testsocket . control:closedown File /var/lib/HPCCSystems IfNotPresent 9876 roxie TCP --config=/etc/config/roxie.yaml --daliServers=mydali --channels=2 --server=true hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 roxie-agent-2 /dev/termination-log roxie roxie-temp-volume /tmp roxie-hpcctmp-volume /var/lib/HPCCSystems roxie-configmap-volume /etc/config dll-pv /var/lib/HPCCSystems/queries data-pv /var/lib/HPCCSystems/hpcc-data mydropzone-pv /var/lib/HPCCSystems/mydropzone kube-api-access-6t24q /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/roxie.sentinel 1 10 cat /tmp/roxie.sentinel.ready 1 3 1 10 cat /tmp/roxie.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-default default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 roxie-agent-2-7bd66c4c89-z7f6j roxie-agent-2-7bd66c4c89- default c03ef51665aad56971a2b3f6dbbbb780bff9976526131cb99037d9d798acfe8e true roxie-agent-2-7bd66c4c89 7a151de2-6549-4999-a9e3-a81fae4298a0 apps/v1 true ReplicaSet 1042709 fe4d1914-df94-4371-92d1-22246b23c1f1 2022-02-08T15:52:38Z roxie yes yes roxie-agent-2 8.6.0-closedown0 7bd66c4c89 roxie-server 2022-02-08T15:52:40Z 192.168.65.4 10.1.15.98 BestEffort 10.1.15.98 Initialized 2022-02-08T15:52:40Z True Ready 2022-02-08T15:53:30Z True ContainersReady 2022-02-08T15:53:30Z True PodScheduled 2022-02-08T15:52:40Z True Running 0 roxie-toposerver true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:53:15Z true docker://d97378cfcd501d0b3aebde80120b46c7e15fad59513e368eb9dbf95f0c5fd1e8 hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 roxie-toposerver-temp-volume roxie-toposerver-hpcctmp-volume roxie-toposerver-configmap 420 roxie-toposerver-configmap-volume 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-mxrpt 0 true 30 PreemptLowerPriority hpcc-default Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable File /var/lib/HPCCSystems IfNotPresent --config=/etc/config/roxie-toposerver.yaml hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 roxie-toposerver /dev/termination-log toposerver roxie-toposerver-temp-volume /tmp roxie-toposerver-hpcctmp-volume /var/lib/HPCCSystems roxie-toposerver-configmap-volume /etc/config kube-api-access-mxrpt /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/roxie-toposerver.sentinel 1 10 cat /tmp/roxie-toposerver.sentinel 1 3 1 10 cat /tmp/roxie-toposerver.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-default default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 roxie-toposerver-7785b6d59f-rkgp4 roxie-toposerver-7785b6d59f- default 3333f9b7bfed5e8b4624b09e6255fa9c2ecab38d192c5d375d5aa0bf8ec2add1 true roxie-toposerver-7785b6d59f be57a40b-b5c6-4553-9a6c-43f49a41cdec apps/v1 true ReplicaSet 1042584 c6913330-e8cf-4cbc-a6e5-219d9676e126 2022-02-08T15:52:40Z 8.6.0-closedown0 7785b6d59f roxie roxie-toposerver 2022-02-08T15:52:39Z 192.168.65.4 10.1.15.97 BestEffort 10.1.15.97 Initialized 2022-02-08T15:52:39Z True Ready 2022-02-08T15:53:39Z True ContainersReady 2022-02-08T15:53:39Z True PodScheduled 2022-02-08T15:52:39Z True Running 0 roxie-workunit true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:53:15Z true docker://fa451a3e9d80a144a6cc58d26132cb644497ecfcfc054ff97dfb07235bcc5878 hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 roxie-workunit-temp-volume roxie-workunit-hpcctmp-volume roxie-workunit-configmap 420 roxie-workunit-configmap-volume dll-pv dll-localfile-hpcc-localfile-pvc data-pv data-localfile-hpcc-localfile-pvc mydropzone-pv mydropzone-localfile-hpcc-localfile-pvc 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-grx9p 0 true 30 PreemptLowerPriority hpcc-default Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable File /var/lib/HPCCSystems IfNotPresent --config=/etc/config/roxie-workunit.yaml --daliServers=mydali hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 roxie-workunit /dev/termination-log agentexec roxie-workunit-temp-volume /tmp roxie-workunit-hpcctmp-volume /var/lib/HPCCSystems roxie-workunit-configmap-volume /etc/config dll-pv /var/lib/HPCCSystems/queries data-pv /var/lib/HPCCSystems/hpcc-data mydropzone-pv /var/lib/HPCCSystems/mydropzone kube-api-access-grx9p /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/roxie-workunit.sentinel 1 10 cat /tmp/roxie-workunit.sentinel 1 3 1 10 cat /tmp/roxie-workunit.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-default default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 roxie-workunit-dbf9c6cfb-gfbfh roxie-workunit-dbf9c6cfb- default 2c9db70f9516e8dcfd53b39f52866c9f4f4c98426488e5be04a8fb8a4e02a133 true roxie-workunit-dbf9c6cfb f3ddb05d-92d8-4eae-923a-c87aecea5ea0 apps/v1 true ReplicaSet 1042628 ac0272b4-e94b-4e1f-8955-436c282ee581 2022-02-08T15:52:39Z 8.6.0-closedown0 dbf9c6cfb yes yes roxie-workunit 2022-02-08T15:52:38Z 192.168.65.4 10.1.15.107 BestEffort 10.1.15.107 Initialized 2022-02-08T15:52:38Z True Ready 2022-02-08T15:53:48Z True ContainersReady 2022-02-08T15:53:48Z True PodScheduled 2022-02-08T15:52:38Z True Running 0 sasha-dfurecovery-archiver true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:53:33Z true docker://f1f3f9709ef296eea27ffbe4c881a7cfcd48101ad5d0301cfbdaea2cbd4e5c03 hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 sasha-dfurecovery-archiver-temp-volume sasha-dfurecovery-archiver-hpcctmp-volume sasha-dfurecovery-archiver-configmap 420 sasha-dfurecovery-archiver-configmap-volume 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-qlpw5 0 true 30 PreemptLowerPriority hpcc-default Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable File /var/lib/HPCCSystems IfNotPresent --config=/etc/config/sasha-dfurecovery-archiver.yaml --service=dfurecovery-archiver --daliServers=mydali hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 sasha-dfurecovery-archiver /dev/termination-log saserver sasha-dfurecovery-archiver-temp-volume /tmp sasha-dfurecovery-archiver-hpcctmp-volume /var/lib/HPCCSystems sasha-dfurecovery-archiver-configmap-volume /etc/config kube-api-access-qlpw5 /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/sasha-dfurecovery-archiver.sentinel 1 10 cat /tmp/sasha-dfurecovery-archiver.sentinel 1 3 1 10 cat /tmp/sasha-dfurecovery-archiver.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-default default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 sasha-dfurecovery-archiver-55ff887bf9-wbgx5 sasha-dfurecovery-archiver-55ff887bf9- default 54fef86ac0a52d65c76a60b880f9064c54349d56b1cf5207f2c2627ddd22c92d true sasha-dfurecovery-archiver-55ff887bf9 6ad28160-bd25-4de5-be87-54791b2ae61c apps/v1 true ReplicaSet 1042666 bf13b612-6ee5-4b8c-ae4c-8de0b139bd2a 2022-02-08T15:52:38Z 8.6.0-closedown0 55ff887bf9 sasha-dfurecovery-archiver yes sasha-dfurecovery-archiver 2022-02-08T15:52:39Z 192.168.65.4 10.1.15.105 BestEffort 10.1.15.105 Initialized 2022-02-08T15:52:39Z True Ready 2022-02-08T15:53:49Z True ContainersReady 2022-02-08T15:53:49Z True PodScheduled 2022-02-08T15:52:39Z True Running 0 sasha-dfuwu-archiver true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:53:31Z true docker://cd129f743137f488d8e6eff45b469610ec2b8b87b33ef2163686f8e456fbe0df hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 sasha-dfuwu-archiver-temp-volume sasha-dfuwu-archiver-hpcctmp-volume sasha-dfuwu-archiver-configmap 420 sasha-dfuwu-archiver-configmap-volume sasha-pv sasha-localfile-hpcc-localfile-pvc 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-jjtdb 0 true 30 PreemptLowerPriority hpcc-default Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable File /var/lib/HPCCSystems IfNotPresent --config=/etc/config/sasha-dfuwu-archiver.yaml --service=dfuwu-archiver --daliServers=mydali hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 sasha-dfuwu-archiver /dev/termination-log saserver sasha-dfuwu-archiver-temp-volume /tmp sasha-dfuwu-archiver-hpcctmp-volume /var/lib/HPCCSystems sasha-dfuwu-archiver-configmap-volume /etc/config sasha-pv /var/lib/HPCCSystems/sasha kube-api-access-jjtdb /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/sasha-dfuwu-archiver.sentinel 1 10 cat /tmp/sasha-dfuwu-archiver.sentinel 1 3 1 10 cat /tmp/sasha-dfuwu-archiver.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-default default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 sasha-dfuwu-archiver-7fb7b44676-jcq94 sasha-dfuwu-archiver-7fb7b44676- default 028631a27c031614475abe5577436d0592cc4cac992bc8d3ff137bd756de78ed true sasha-dfuwu-archiver-7fb7b44676 fa3121ef-457d-417b-87eb-d6b161ca8f7c apps/v1 true ReplicaSet 1042670 f3c6f762-bef2-434b-8831-ac814319bf8e 2022-02-08T15:52:39Z 8.6.0-closedown0 7fb7b44676 sasha-dfuwu-archiver yes sasha-dfuwu-archiver 2022-02-08T15:52:38Z 192.168.65.4 10.1.15.89 BestEffort 10.1.15.89 Initialized 2022-02-08T15:52:38Z True Ready 2022-02-08T15:53:38Z True ContainersReady 2022-02-08T15:53:38Z True PodScheduled 2022-02-08T15:52:38Z True Running 0 sasha-file-expiry true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:52:50Z true docker://c0cee265af0dc3a93d89909a6dad423f1bc3dbb468cf71beee7fc37322dd55d3 hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 sasha-file-expiry-temp-volume sasha-file-expiry-hpcctmp-volume sasha-file-expiry-configmap 420 sasha-file-expiry-configmap-volume data-pv data-localfile-hpcc-localfile-pvc 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-lpjh8 0 true 30 PreemptLowerPriority hpcc-default Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable File /var/lib/HPCCSystems IfNotPresent --config=/etc/config/sasha-file-expiry.yaml --service=file-expiry --daliServers=mydali hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 sasha-file-expiry /dev/termination-log saserver sasha-file-expiry-temp-volume /tmp sasha-file-expiry-hpcctmp-volume /var/lib/HPCCSystems sasha-file-expiry-configmap-volume /etc/config data-pv /var/lib/HPCCSystems/hpcc-data kube-api-access-lpjh8 /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/sasha-file-expiry.sentinel 1 10 cat /tmp/sasha-file-expiry.sentinel 1 3 1 10 cat /tmp/sasha-file-expiry.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-default default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 sasha-file-expiry-59d968d9b9-g7x2t sasha-file-expiry-59d968d9b9- default ec091c8532139a76c127155f887ed44264e45b3bae1f519513b3d9712d499c61 true sasha-file-expiry-59d968d9b9 8acb4843-f1d1-4c8c-a669-dc08f9cc0fba apps/v1 true ReplicaSet 1042600 5c0a01ff-d63c-4d40-a278-3173be41490e 2022-02-08T15:52:38Z 8.6.0-closedown0 59d968d9b9 sasha-file-expiry yes sasha-file-expiry 2022-02-08T15:52:40Z 192.168.65.4 10.1.15.103 BestEffort 10.1.15.103 Initialized 2022-02-08T15:52:40Z True Ready 2022-02-08T15:53:40Z True ContainersReady 2022-02-08T15:53:40Z True PodScheduled 2022-02-08T15:52:40Z True Running 0 sasha-wu-archiver true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:53:27Z true docker://e48775f5e25f68f29e8baa3aabf2ee6bf74ebd68aabe80f5c0f88b42a7d6edf2 hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 sasha-wu-archiver-temp-volume sasha-wu-archiver-hpcctmp-volume sasha-wu-archiver-configmap 420 sasha-wu-archiver-configmap-volume dll-pv dll-localfile-hpcc-localfile-pvc sasha-pv sasha-localfile-hpcc-localfile-pvc data-pv data-localfile-hpcc-localfile-pvc 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-czlcr 0 true 30 PreemptLowerPriority hpcc-default Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable File /var/lib/HPCCSystems IfNotPresent --config=/etc/config/sasha-wu-archiver.yaml --service=wu-archiver --daliServers=mydali hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 sasha-wu-archiver /dev/termination-log saserver sasha-wu-archiver-temp-volume /tmp sasha-wu-archiver-hpcctmp-volume /var/lib/HPCCSystems sasha-wu-archiver-configmap-volume /etc/config dll-pv /var/lib/HPCCSystems/queries sasha-pv /var/lib/HPCCSystems/sasha data-pv /var/lib/HPCCSystems/hpcc-data kube-api-access-czlcr /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/sasha-wu-archiver.sentinel 1 10 cat /tmp/sasha-wu-archiver.sentinel 1 3 1 10 cat /tmp/sasha-wu-archiver.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-default default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 sasha-wu-archiver-65d95ccf4b-fndl5 sasha-wu-archiver-65d95ccf4b- default d762ff93856e448e5c7658b2c8bdfab2151a2f926930cc2ae296089ae1fc1c58 true sasha-wu-archiver-65d95ccf4b ad9c3d3c-9aaf-4843-9f27-cf9edab4f10b apps/v1 true ReplicaSet 1042638 63854c4f-e499-4e0f-9f65-847a0a853eac 2022-02-08T15:52:40Z 8.6.0-closedown0 65d95ccf4b sasha-wu-archiver yes sasha-wu-archiver 2022-02-08T15:52:38Z 192.168.65.4 10.1.15.86 BestEffort 10.1.15.86 Initialized 2022-02-08T15:52:38Z True Ready 2022-02-08T15:53:38Z True ContainersReady 2022-02-08T15:53:38Z True PodScheduled 2022-02-08T15:52:38Z True Running 0 sql2ecl true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:52:43Z true docker://155a2ff7557ac20bb220a7b84656c5d01c6eb2d8e4833b63a125a4a25578fb1e hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 sql2ecl-temp-volume sql2ecl-hpcctmp-volume sql2ecl-configmap 420 sql2ecl-configmap-volume dll-pv dll-localfile-hpcc-localfile-pvc data-pv data-localfile-hpcc-localfile-pvc 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-8vkzv 0 true 30 PreemptLowerPriority hpcc-esp-service Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable File /var/lib/HPCCSystems IfNotPresent --application=sql2ecl --config=/etc/config/sql2ecl.yaml --daliServers=mydali hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 sql2ecl /dev/termination-log esp sql2ecl-temp-volume /tmp sql2ecl-hpcctmp-volume /var/lib/HPCCSystems sql2ecl-configmap-volume /etc/config dll-pv /var/lib/HPCCSystems/queries data-pv /var/lib/HPCCSystems/hpcc-data kube-api-access-8vkzv /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/sql2ecl.sentinel 1 10 cat /tmp/sql2ecl.sentinel 1 3 1 10 cat /tmp/sql2ecl.sentinel 1 30 true SYS_PTRACE 10001 true 10000 false hpcc-esp-service default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 sql2ecl-7854f898-l5qnp sql2ecl-7854f898- default 9775bc49759cb5228ae6f15054c017a480355397696e4f29109e9c6e836a7dff true sql2ecl-7854f898 85d3fe62-ef7d-446d-974e-8a6bb4e70191 apps/v1 true ReplicaSet 1042604 09e852ef-c9d5-4d3a-89c8-d950567d774d 2022-02-08T15:52:38Z 8.6.0-closedown0 sql2ecl 7854f898 sql2ecl yes sql2ecl 2022-02-08T15:52:39Z 192.168.65.4 10.1.15.102 BestEffort 10.1.15.102 Initialized 2022-02-08T15:52:39Z True Ready 2022-02-08T15:53:26Z True ContainersReady 2022-02-08T15:53:26Z True PodScheduled 2022-02-08T15:52:39Z True Running 0 thor-eclagent true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:53:26Z true docker://7a498e062b22553ab679da1efac3ca309d56b8b2c33f56e0b3e18e62f99b9fa9 hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 thor-temp-volume thor-hpcctmp-volume thor-configmap 420 thor-configmap-volume dll-pv dll-localfile-hpcc-localfile-pvc data-pv data-localfile-hpcc-localfile-pvc mydropzone-pv mydropzone-localfile-hpcc-localfile-pvc 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-84nkg 0 true 30 PreemptLowerPriority hpcc-default Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable --config=/etc/config/thor.yaml --daliServers=mydali --name=thor thor-eclagent /dev/termination-log agentexec thor-temp-volume /tmp thor-hpcctmp-volume /var/lib/HPCCSystems thor-configmap-volume /etc/config dll-pv /var/lib/HPCCSystems/queries data-pv /var/lib/HPCCSystems/hpcc-data mydropzone-pv /var/lib/HPCCSystems/mydropzone kube-api-access-84nkg /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/thor-eclagent.sentinel File IfNotPresent /var/lib/HPCCSystems true SYS_PTRACE 10001 true 10000 false hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 hpcc-default default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 thor-eclagent-5b88ff456b-mgxgx thor-eclagent-5b88ff456b- default 463a46dafb56419205e67be8fceea87328d1d58a3b1b9bb896d41faaf567a18f true thor-eclagent-5b88ff456b 49c79e94-ad92-4050-8678-e98f0e7d0a26 apps/v1 true ReplicaSet 1042527 f40de4ca-365c-4740-84c2-190584972f36 2022-02-08T15:52:39Z 8.6.0-closedown0 5b88ff456b yes yes thor-eclagent 2022-02-08T15:52:38Z 192.168.65.4 10.1.15.92 BestEffort 10.1.15.92 Initialized 2022-02-08T15:52:38Z True Ready 2022-02-08T15:52:58Z True ContainersReady 2022-02-08T15:52:58Z True PodScheduled 2022-02-08T15:52:38Z True Running 0 thor-thoragent true docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face 2022-02-08T15:52:57Z true docker://edbebb4e3f6fca643990e092f6d0b75afd1578c994d5ed11eecc904b5238dca1 hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 thor-temp-volume thor-hpcctmp-volume thor-configmap 420 thor-configmap-volume dll-pv dll-localfile-hpcc-localfile-pvc data-pv data-localfile-hpcc-localfile-pvc mydropzone-pv mydropzone-localfile-hpcc-localfile-pvc 420 token 3607 ca.crt ca.crt kube-root-ca.crt namespace v1 metadata.namespace kube-api-access-4dm64 0 true 30 PreemptLowerPriority hpcc-thoragent Exists 300 NoExecute node.kubernetes.io/not-ready Exists 300 NoExecute node.kubernetes.io/unreachable --config=/etc/config/thor.yaml --componentTag=thoragent --daliServers=mydali --name=thor thor-thoragent /dev/termination-log agentexec thor-temp-volume /tmp thor-hpcctmp-volume /var/lib/HPCCSystems thor-configmap-volume /etc/config dll-pv /var/lib/HPCCSystems/queries data-pv /var/lib/HPCCSystems/hpcc-data mydropzone-pv /var/lib/HPCCSystems/mydropzone kube-api-access-4dm64 /var/run/secrets/kubernetes.io/serviceaccount true SENTINEL /tmp/thor-thoragent.sentinel File IfNotPresent /var/lib/HPCCSystems true SYS_PTRACE 10001 true 10000 false hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104 hpcc-thoragent default-scheduler ClusterFirst docker-desktop Always v1 Pod <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kube-controller-manager FieldsV1 <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> <_x2E_/> Update v1 kubelet FieldsV1 thor-thoragent-987d5c4c9-6vrsp thor-thoragent-987d5c4c9- default 463a46dafb56419205e67be8fceea87328d1d58a3b1b9bb896d41faaf567a18f true thor-thoragent-987d5c4c9 eda0c300-fb73-4f48-b10e-bbe181b45299 apps/v1 true ReplicaSet 1042417 891b3af0-c4b5-4d82-8192-d890ee66d145 2022-02-08T15:52:38Z 8.6.0-closedown0 987d5c4c9 no yes thor-thoragent List