__object__>
v1
2022-02-08T15:52:38Z
192.168.65.4
10.1.15.96
BestEffort
10.1.15.96
Initialized
2022-02-08T15:52:38Z
True
Ready
2022-02-08T15:53:38Z
True
ContainersReady
2022-02-08T15:53:38Z
True
PodScheduled
2022-02-08T15:52:38Z
True
Running
0
dfuserver
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:53:13Z
true
docker://885b6f25ba67cb2a1fa7b454ae2b53547d9e70d0d7bc5528e0455d8de9578222
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
dfuserver-temp-volume
dfuserver-hpcctmp-volume
dfuserver-configmap
420
dfuserver-configmap-volume
data-pv
data-localfile-hpcc-localfile-pvc
mydropzone-pv
mydropzone-localfile-hpcc-localfile-pvc
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-5mjgx
0
true
30
PreemptLowerPriority
hpcc-default
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
File
/var/lib/HPCCSystems
IfNotPresent
--config=/etc/config/dfuserver.yaml
--daliServers=mydali
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
dfuserver
/dev/termination-log
dfuserver
data-pv
/var/lib/HPCCSystems/hpcc-data
mydropzone-pv
/var/lib/HPCCSystems/mydropzone
dfuserver-temp-volume
/tmp
dfuserver-hpcctmp-volume
/var/lib/HPCCSystems
dfuserver-configmap-volume
/etc/config
kube-api-access-5mjgx
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/dfuserver.sentinel
1
10
cat
/tmp/dfuserver.sentinel
1
3
1
10
cat
/tmp/dfuserver.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-default
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
dfuserver-5894ccfd9f-xjqvr
dfuserver-5894ccfd9f-
default
777fc531b7d814d703c53f4735ac53ad99378f9ab2639f993bd79dad6c424481
true
dfuserver-5894ccfd9f
c0282fdc-a4c5-4ad4-a8e2-3a925de38722
apps/v1
true
ReplicaSet
1042620
9b5e51c9-3dfd-4891-b931-ad060d6cc543
2022-02-08T15:52:38Z
8.6.0-closedown0
5894ccfd9f
yes
dfuserver
2022-02-08T15:52:39Z
192.168.65.4
10.1.15.95
BestEffort
10.1.15.95
Initialized
2022-02-08T15:52:39Z
True
Ready
2022-02-08T15:53:39Z
True
ContainersReady
2022-02-08T15:53:39Z
True
PodScheduled
2022-02-08T15:52:39Z
True
Running
0
eclqueries
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:53:08Z
true
docker://871b418b53113984f64f341a9875ce6dc5fd09a4304f7caeab4b3e66c434e6d9
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
eclqueries-temp-volume
eclqueries-hpcctmp-volume
eclqueries-configmap
420
eclqueries-configmap-volume
dll-pv
dll-localfile-hpcc-localfile-pvc
data-pv
data-localfile-hpcc-localfile-pvc
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-ssg64
0
true
30
PreemptLowerPriority
hpcc-esp-service
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
File
/var/lib/HPCCSystems
IfNotPresent
--application=eclqueries
--config=/etc/config/eclqueries.yaml
--daliServers=mydali
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
eclqueries
/dev/termination-log
esp
eclqueries-temp-volume
/tmp
eclqueries-hpcctmp-volume
/var/lib/HPCCSystems
eclqueries-configmap-volume
/etc/config
dll-pv
/var/lib/HPCCSystems/queries
data-pv
/var/lib/HPCCSystems/hpcc-data
kube-api-access-ssg64
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/eclqueries.sentinel
1
10
cat
/tmp/eclqueries.sentinel
1
3
1
10
cat
/tmp/eclqueries.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-esp-service
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
eclqueries-86db456f56-mwg8b
eclqueries-86db456f56-
default
0417d3ee462d1133635cb2861722f354b347dc060a525d1ed2609a2177cba72d
true
eclqueries-86db456f56
d7d55e01-63dc-409d-bc80-723737da4da9
apps/v1
true
ReplicaSet
1042658
6ab94c69-0aaa-49df-a239-a01b40046eb8
2022-02-08T15:52:39Z
8.6.0-closedown0
eclqueries
86db456f56
eclqueries
yes
eclqueries
2022-02-08T15:52:40Z
192.168.65.4
10.1.15.100
BestEffort
10.1.15.100
Initialized
2022-02-08T15:52:40Z
True
Ready
2022-02-08T15:53:40Z
True
ContainersReady
2022-02-08T15:53:40Z
True
PodScheduled
2022-02-08T15:52:40Z
True
Running
0
eclscheduler
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:53:21Z
true
docker://c37e4dbce6f38c48f4c0058cc633ea21bdf5aee29f11032ad22bd8139b0171cc
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
eclscheduler-temp-volume
eclscheduler-hpcctmp-volume
eclscheduler-configmap
420
eclscheduler-configmap-volume
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-grhwn
0
true
600
PreemptLowerPriority
hpcc-default
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
File
/var/lib/HPCCSystems
IfNotPresent
--config=/etc/config/eclscheduler.yaml
--daliServers=mydali
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
eclscheduler
/dev/termination-log
eclscheduler
eclscheduler-temp-volume
/tmp
eclscheduler-hpcctmp-volume
/var/lib/HPCCSystems
eclscheduler-configmap-volume
/etc/config
kube-api-access-grhwn
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/eclscheduler.sentinel
1
10
cat
/tmp/eclscheduler.sentinel
1
3
1
10
cat
/tmp/eclscheduler.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-default
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
eclscheduler-6498779bdf-shhkn
eclscheduler-6498779bdf-
default
7d5749618b00c4a6c95279781462d960d3b371e55e7f3ae4a4c49b9df1433bc0
true
eclscheduler-6498779bdf
b7940b48-a19e-4646-b74a-83db53afdc5b
apps/v1
true
ReplicaSet
1042632
4719b54c-758c-462a-a01e-407fc6cf4409
2022-02-08T15:52:40Z
8.6.0-closedown0
6498779bdf
no
yes
eclscheduler
2022-02-08T15:52:40Z
192.168.65.4
10.1.15.104
BestEffort
10.1.15.104
Initialized
2022-02-08T15:52:40Z
True
Ready
2022-02-08T15:53:40Z
True
ContainersReady
2022-02-08T15:53:40Z
True
PodScheduled
2022-02-08T15:52:40Z
True
Running
0
eclservices
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:53:29Z
true
docker://07bea748bdab9f5bce0aa77b3b7549d0b54d7b74900c1b9041570c495e4646f0
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
eclservices-temp-volume
eclservices-hpcctmp-volume
eclservices-configmap
420
eclservices-configmap-volume
dll-pv
dll-localfile-hpcc-localfile-pvc
data-pv
data-localfile-hpcc-localfile-pvc
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-58f68
0
true
30
PreemptLowerPriority
hpcc-esp-service
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
File
/var/lib/HPCCSystems
IfNotPresent
--application=eclservices
--config=/etc/config/eclservices.yaml
--daliServers=mydali
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
eclservices
/dev/termination-log
esp
eclservices-temp-volume
/tmp
eclservices-hpcctmp-volume
/var/lib/HPCCSystems
eclservices-configmap-volume
/etc/config
dll-pv
/var/lib/HPCCSystems/queries
data-pv
/var/lib/HPCCSystems/hpcc-data
kube-api-access-58f68
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/eclservices.sentinel
1
10
cat
/tmp/eclservices.sentinel
1
3
1
10
cat
/tmp/eclservices.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-esp-service
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
eclservices-6dccb76c58-x7gt6
eclservices-6dccb76c58-
default
fab08dd966618c5f6a11974a75e32da516809957bb6236bc80a6226672794dbd
true
eclservices-6dccb76c58
9e6464b8-d57b-4e1a-b243-d88d29c378ca
apps/v1
true
ReplicaSet
1042644
a2378f6e-91d2-4a53-a9cd-63f2c064a76a
2022-02-08T15:52:40Z
8.6.0-closedown0
eclservices
6dccb76c58
eclservices
yes
eclservices
2022-02-08T15:52:39Z
192.168.65.4
10.1.15.101
BestEffort
10.1.15.101
Initialized
2022-02-08T15:52:39Z
True
Ready
2022-02-08T15:53:39Z
True
ContainersReady
2022-02-08T15:53:39Z
True
PodScheduled
2022-02-08T15:52:39Z
True
Running
0
eclwatch
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:53:21Z
true
docker://11cf30ffc7884319d049c25cbd7e94a56d0b5e3a0f652b3daf5ccea9fa46e5df
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
eclwatch-temp-volume
eclwatch-hpcctmp-volume
eclwatch-configmap
420
eclwatch-configmap-volume
dll-pv
dll-localfile-hpcc-localfile-pvc
data-pv
data-localfile-hpcc-localfile-pvc
mydropzone-pv
mydropzone-localfile-hpcc-localfile-pvc
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-bflbp
0
true
30
PreemptLowerPriority
hpcc-esp-service
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
File
/var/lib/HPCCSystems
IfNotPresent
--application=eclwatch
--config=/etc/config/eclwatch.yaml
--daliServers=mydali
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
eclwatch
/dev/termination-log
esp
eclwatch-temp-volume
/tmp
eclwatch-hpcctmp-volume
/var/lib/HPCCSystems
eclwatch-configmap-volume
/etc/config
dll-pv
/var/lib/HPCCSystems/queries
data-pv
/var/lib/HPCCSystems/hpcc-data
mydropzone-pv
/var/lib/HPCCSystems/mydropzone
kube-api-access-bflbp
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/eclwatch.sentinel
1
10
cat
/tmp/eclwatch.sentinel
1
3
1
10
cat
/tmp/eclwatch.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-esp-service
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
eclwatch-78dfddf44-x9kv7
eclwatch-78dfddf44-
default
2e0e327b0b402179572f9776633e5c8d906a9b9b0699c0e0a712958455212036
true
eclwatch-78dfddf44
e5e801e9-59fa-4a62-b117-f3caba8da6ad
apps/v1
true
ReplicaSet
1042649
69352bd9-96e9-4767-b26d-a96a5ade313d
2022-02-08T15:52:39Z
8.6.0-closedown0
eclwatch
78dfddf44
eclwatch
yes
eclwatch
2021-10-21T15:24:44Z
192.168.65.4
47
configure-sysctl
docker-pullable://docker.elastic.co/elasticsearch/elasticsearch@sha256:4999c5f75c1d0d69754902d3975dd36875cc2eb4a06d7fdceaa8ec0e71a81dfa
2022-02-08T14:03:56Z
2022-02-08T14:03:56Z
Completed
docker://9b019accf926c1b63dc912cc5eddbd32bde08350f75dcfc34680b426a8cbec0c
0
true
docker://9b019accf926c1b63dc912cc5eddbd32bde08350f75dcfc34680b426a8cbec0c
docker.elastic.co/elasticsearch/elasticsearch:7.12.0
10.1.15.63
Burstable
10.1.15.63
Initialized
2021-10-21T15:26:26Z
True
Ready
2022-02-08T14:06:18Z
True
ContainersReady
2022-02-08T14:06:18Z
True
PodScheduled
2021-10-21T15:24:44Z
True
Running
47
elasticsearch
true
2022-02-07T18:31:00Z
2022-02-08T14:02:22Z
Error
docker://1d86ce60726f323fe6252e59dee360def023692949a86ea0137dc98c5f358b20
255
docker-pullable://docker.elastic.co/elasticsearch/elasticsearch@sha256:4999c5f75c1d0d69754902d3975dd36875cc2eb4a06d7fdceaa8ec0e71a81dfa
2022-02-08T14:03:56Z
true
docker://4f6eb4613ef06d88bf73278151b9a0547203872d5c8b333a9d91456ca758204b
docker.elastic.co/elasticsearch/elasticsearch:7.12.0
elasticsearch-master
elasticsearch-master-elasticsearch-master-0
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-2jmsg
elasticsearch-master-headless
elasticsearch-master-0
0
true
1
kubernetes.io/hostname
In
app
elasticsearch-master
120
PreemptLowerPriority
kube-api-access-2jmsg
/var/run/secrets/kubernetes.io/serviceaccount
true
configure-sysctl
/dev/termination-log
sysctl
-w
vm.max_map_count=262144
File
IfNotPresent
0
true
docker.elastic.co/elasticsearch/elasticsearch:7.12.0
default
elasticsearch-master
/usr/share/elasticsearch/data
kube-api-access-2jmsg
/var/run/secrets/kubernetes.io/serviceaccount
true
elasticsearch
/dev/termination-log
bash
-c
PIPELINE_NAME=hpccpipeline
ES_URL=http://localhost:9200
PIPELINE_REQ_PATH=_ingest/pipeline
[ -z ${WAIT_ES_READY_IN_SEC} ] && WAIT_ES_READY_IN_SEC=120
END_TIME=$(expr $(date +%s) \+ ${WAIT_ES_READY_IN_SEC})
START_FILE=/tmp/.es_start_file
while [[ $(date +%s) -le ${END_TIME} ]]; do
[ -f "${START_FILE}" ] && break
sleep 1
done
if [ -f "${START_FILE}" ]; then
echo 'Cluster is ready to add hpccpipeline'
else
echo 'Cluster health check timeout. Will try to add hpccpipeline anyway.'
fi
# Need wait elasticsearch container ready to test the hostname with ordinal
# Only add pipeline in the first elasticsearch master
if [ ${HOSTNAME##*-} -eq 0 ]; then
curl -s -X PUT "$ES_URL/$PIPELINE_REQ_PATH/$PIPELINE_NAME/" -H 'Content-Type: application/json' \
-d'{ "description": "Parses and formats HPCC Systems component log entries", "processors": [{ "grok": { "field": "message", "patterns": ["%{BASE16NUM:hpcc.log.sequence}\\s+%{HPCC_LOG_AUDIENCE:hpcc.log.audience}\\s+%{HPCC_LOG_CLASS:hpcc.log.class}\\s+%{TIMESTAMP_ISO8601:hpcc.log.timestamp}\\s+%{POSINT:hpcc.log.procid}\\s+%{POSINT:hpcc.log.threadid}\\s+%{HPCC_LOG_WUID:hpcc.log.jobid}\\s+%{QUOTEDSTRING:hpcc.log.message}"], "pattern_definitions": { "HPCC_LOG_WUID": "([A-Z][0-9]{8}-[0-9]{6})|(UNK)", "HPCC_LOG_CLASS": "DIS|ERR|WRN|INF|PRO|MET|UNK", "HPCC_LOG_AUDIENCE": "OPR|USR|PRG|AUD|UNK" } } }], "on_failure": [{ "set": { "field": "error.message", "value": "{{ _ingest.on_failure_message }}" } }] }'
rc=$?
if [ ${rc} -eq 0 ]; then
echo 'Successfully added hpccpipeline !'
else
echo 'Failed to add hpccpipeline.'
exit $rc
fi
fi
node.name
v1
metadata.name
cluster.initial_master_nodes
elasticsearch-master-0,
discovery.seed_hosts
elasticsearch-master-headless
cluster.name
elasticsearch
network.host
0.0.0.0
ES_JAVA_OPTS
-Xmx1g -Xms1g
node.data
true
node.ingest
true
node.master
true
node.ml
true
node.remote_cluster_client
true
WAIT_ES_READY_IN_SEC
120
10
5
10
sh
-c
#!/usr/bin/env bash -e
# If the node is starting up wait for the cluster to be ready (request params: "local=true" )
# Once it has started only check that the node itself is responding
START_FILE=/tmp/.es_start_file
# Disable nss cache to avoid filling dentry cache when calling curl
# This is required with Elasticsearch Docker using nss < 3.52
export NSS_SDB_USE_CACHE=no
http () {
local path="${1}"
local args="${2}"
set -- -XGET -s
if [ "$args" != "" ]; then
set -- "$@" $args
fi
if [ -n "${ELASTIC_USERNAME}" ] && [ -n "${ELASTIC_PASSWORD}" ]; then
set -- "$@" -u "${ELASTIC_USERNAME}:${ELASTIC_PASSWORD}"
fi
curl --output /dev/null -k "$@" "http://127.0.0.1:9200${path}"
}
if [ -f "${START_FILE}" ]; then
echo 'Elasticsearch is already running, lets check the node is healthy'
HTTP_CODE=$(http "/" "-w %{http_code}")
RC=$?
if [[ ${RC} -ne 0 ]]; then
echo "curl --output /dev/null -k -XGET -s -w '%{http_code}' \${BASIC_AUTH} http://127.0.0.1:9200/ failed with RC ${RC}"
exit ${RC}
fi
# ready if HTTP code 200, 503 is tolerable if ES version is 6.x
if [[ ${HTTP_CODE} == "200" ]]; then
exit 0
elif [[ ${HTTP_CODE} == "503" && "7" == "6" ]]; then
exit 0
else
echo "curl --output /dev/null -k -XGET -s -w '%{http_code}' \${BASIC_AUTH} http://127.0.0.1:9200/ failed with HTTP code ${HTTP_CODE}"
exit 1
fi
else
echo 'Waiting for elasticsearch cluster to become ready (request params: "local=true" )'
if http "/_cluster/health?local=true" "--fail" ; then
touch ${START_FILE}
exit 0
else
echo 'Cluster is not yet ready (request params: "local=true" )'
exit 1
fi
fi
3
3
2Gi
1
2Gi
1
IfNotPresent
9200
http
TCP
9300
transport
TCP
File
true
ALL
1000
docker.elastic.co/elasticsearch/elasticsearch:7.12.0
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
default
default-scheduler
ClusterFirst
1000
1000
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
Update
v1
kube-scheduler
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
elasticsearch-master-0
elasticsearch-master-
default
7fdbab29-31a5-4f91-a479-f012ebdb9249
true
elasticsearch-master
42991ff7-004e-47e5-85a1-3e72aa4af05f
apps/v1
true
StatefulSet
1033202
2021-10-21T15:24:42Z
elasticsearch
elasticsearch-master
HPCC
myelastic
elasticsearch-master-0
elasticsearch-master-655fb4dc8
2022-02-08T15:52:38Z
192.168.65.4
10.1.15.91
BestEffort
10.1.15.91
Initialized
2022-02-08T15:52:38Z
True
Ready
2022-02-08T15:53:38Z
True
ContainersReady
2022-02-08T15:53:38Z
True
PodScheduled
2022-02-08T15:52:38Z
True
Running
0
esdl-sandbox
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:52:54Z
true
docker://055f59a0f2d188a4449db65e9e233f90b3adc14f3299d94adb225493b7e1aecb
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
esdl-sandbox-temp-volume
esdl-sandbox-hpcctmp-volume
esdl-sandbox-configmap
420
esdl-sandbox-configmap-volume
dll-pv
dll-localfile-hpcc-localfile-pvc
data-pv
data-localfile-hpcc-localfile-pvc
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-ppktm
0
true
30
PreemptLowerPriority
hpcc-esp-service
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
File
/var/lib/HPCCSystems
IfNotPresent
--application=esdl-sandbox
--config=/etc/config/esdl-sandbox.yaml
--daliServers=mydali
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
esdl-sandbox
/dev/termination-log
esp
esdl-sandbox-temp-volume
/tmp
esdl-sandbox-hpcctmp-volume
/var/lib/HPCCSystems
esdl-sandbox-configmap-volume
/etc/config
dll-pv
/var/lib/HPCCSystems/queries
data-pv
/var/lib/HPCCSystems/hpcc-data
kube-api-access-ppktm
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/esdl-sandbox.sentinel
1
10
cat
/tmp/esdl-sandbox.sentinel
1
3
1
10
cat
/tmp/esdl-sandbox.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-esp-service
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
esdl-sandbox-dd445cd8d-znnfz
esdl-sandbox-dd445cd8d-
default
e3aff45c3984af5f38873d8ea8eca8be74e7c14856411d8d7426ca3781350c09
true
esdl-sandbox-dd445cd8d
d36b74d3-3123-4f4f-9976-2367586cee17
apps/v1
true
ReplicaSet
1042610
0a40ab0a-b861-41cd-97a1-27ccd506084a
2022-02-08T15:52:38Z
8.6.0-closedown0
esdl-sandbox
dd445cd8d
esdl-sandbox
yes
esdl-sandbox
2022-02-08T15:52:38Z
192.168.65.4
10.1.15.94
BestEffort
10.1.15.94
Initialized
2022-02-08T15:52:38Z
True
Ready
2022-02-08T15:53:38Z
True
ContainersReady
2022-02-08T15:53:38Z
True
PodScheduled
2022-02-08T15:52:38Z
True
Running
0
hthor
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:53:06Z
true
docker://da02fc509bd568b267c1be7ebd3912abd8ebbf2850b4eb3e718f7532c549b510
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
hthor-temp-volume
hthor-hpcctmp-volume
hthor-configmap
420
hthor-configmap-volume
dll-pv
dll-localfile-hpcc-localfile-pvc
data-pv
data-localfile-hpcc-localfile-pvc
mydropzone-pv
mydropzone-localfile-hpcc-localfile-pvc
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-7zccw
0
true
30
PreemptLowerPriority
hpcc-agent
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
File
/var/lib/HPCCSystems
IfNotPresent
--config=/etc/config/hthor.yaml
--daliServers=mydali
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
hthor
/dev/termination-log
agentexec
hthor-temp-volume
/tmp
hthor-hpcctmp-volume
/var/lib/HPCCSystems
hthor-configmap-volume
/etc/config
dll-pv
/var/lib/HPCCSystems/queries
data-pv
/var/lib/HPCCSystems/hpcc-data
mydropzone-pv
/var/lib/HPCCSystems/mydropzone
kube-api-access-7zccw
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/hthor.sentinel
1
10
cat
/tmp/hthor.sentinel
1
3
1
10
cat
/tmp/hthor.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-agent
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
hthor-7546dc75cd-hxgrb
hthor-7546dc75cd-
default
41bb787c4c98ff833cba2c1922e5fabdb3e27d6c942d698ede7cbfe43761d652
true
hthor-7546dc75cd
99cd9c4a-919a-4287-81d5-500c4b92d000
apps/v1
true
ReplicaSet
1042616
a13f08ab-de53-42ff-b2ee-58a0312ed6bc
2022-02-08T15:52:38Z
8.6.0-closedown0
7546dc75cd
no
yes
hthor
2021-09-26T13:44:42Z
192.168.65.4
10.1.15.39
BestEffort
10.1.15.39
Initialized
2021-09-26T13:44:42Z
True
Ready
2022-02-08T14:03:19Z
True
ContainersReady
2022-02-08T14:03:19Z
True
PodScheduled
2021-09-26T13:44:42Z
True
Running
56
hello
true
2022-02-07T18:31:27Z
2022-02-08T14:02:22Z
Error
docker://1186ee6e9e816f709c701448b40e5134ba6a0d3fbb9255f15dc35be9550a7385
255
docker-pullable://cloudecho/hello@sha256:f76ede067ab954cc9168ad25a4fd74cfcd9fe9b2f312f6df2669e750265ab372
2022-02-08T14:03:18Z
true
docker://7fb4fa42d002c2d7f8be849ca14cc1adefb006d06ecbd6668341125ad5542ea8
cloudecho/hello:0.1.0
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-bgztm
0
true
30
PreemptLowerPriority
default
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
1
10
1
/
http
HTTP
3
hello
/dev/termination-log
kube-api-access-bgztm
/var/run/secrets/kubernetes.io/serviceaccount
true
File
1
10
1
/
http
HTTP
3
IfNotPresent
8080
http
TCP
cloudecho/hello:0.1.0
default
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
my-hello-7bfd984465-b28xw
my-hello-7bfd984465-
default
a95c4165-0482-4cab-8e6f-862c1fee4718
true
my-hello-7bfd984465
17f85d75-b8ce-4a9d-8625-9505658a8974
apps/v1
true
ReplicaSet
1032904
2021-09-26T13:44:42Z
hello
7bfd984465
my-hello
2022-02-08T15:52:38Z
192.168.65.4
10.1.15.93
BestEffort
10.1.15.93
Initialized
2022-02-08T15:52:38Z
True
Ready
2022-02-08T15:53:18Z
True
ContainersReady
2022-02-08T15:53:18Z
True
PodScheduled
2022-02-08T15:52:38Z
True
Running
0
mydali
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:53:03Z
true
docker://cf3de7ee2cc0483033a1517ebec64b9efd54d02f811e950e3636525ad4ab88dc
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
0
sasha-coalescer
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:53:03Z
true
docker://273c8689b20eef4327c3e83fe039ba7b3ffe34f1c1bf8e2f33cf01ee27b5e24f
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
mydali-temp-volume
mydali-hpcctmp-volume
mydali-configmap
420
mydali-configmap-volume
sasha-coalescer-temp-volume
sasha-coalescer-hpcctmp-volume
sasha-coalescer-configmap
420
sasha-coalescer-configmap-volume
dali-pv
dali-localfile-hpcc-localfile-pvc
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-vn89n
0
true
30
PreemptLowerPriority
hpcc-default
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
File
/var/lib/HPCCSystems
IfNotPresent
--config=/etc/config/mydali.yaml
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
mydali
/dev/termination-log
daserver
mydali-temp-volume
/tmp
mydali-hpcctmp-volume
/var/lib/HPCCSystems
mydali-configmap-volume
/etc/config
dali-pv
/var/lib/HPCCSystems/dalistorage
kube-api-access-vn89n
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/mydali.sentinel
1
10
cat
/tmp/mydali.sentinel
1
3
1
10
cat
/tmp/mydali.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
File
/var/lib/HPCCSystems
IfNotPresent
--config=/etc/config/sasha-coalescer.yaml
--service=coalescer
--daliServers=mydali
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
sasha-coalescer
/dev/termination-log
saserver
sasha-coalescer-temp-volume
/tmp
sasha-coalescer-hpcctmp-volume
/var/lib/HPCCSystems
sasha-coalescer-configmap-volume
/etc/config
dali-pv
/var/lib/HPCCSystems/dalistorage
kube-api-access-vn89n
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/sasha-coalescer.sentinel
1
10
cat
/tmp/sasha-coalescer.sentinel
1
3
1
10
cat
/tmp/sasha-coalescer.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-default
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
mydali-647974c47c-2cbfp
mydali-647974c47c-
default
e5b9ecaa-4fb7-4674-ab82-eeca96484125
true
mydali-647974c47c
8e78df12-075a-48be-9525-9de50ea42124
apps/v1
true
ReplicaSet
1042493
2022-02-08T15:52:38Z
8.6.0-closedown0
dali
647974c47c
mydali
mydali
2022-02-08T15:52:40Z
192.168.65.4
10.1.15.106
BestEffort
10.1.15.106
Initialized
2022-02-08T15:52:40Z
True
Ready
2022-02-08T15:53:50Z
True
ContainersReady
2022-02-08T15:53:50Z
True
PodScheduled
2022-02-08T15:52:40Z
True
Running
0
myeclccserver
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:53:33Z
true
docker://f91a8e3e1a99497148bfcf72c923ef4ae25e9daa094346f47978760bb0bda717
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
myeclccserver-temp-volume
myeclccserver-hpcctmp-volume
myeclccserver-configmap
420
myeclccserver-configmap-volume
dll-pv
dll-localfile-hpcc-localfile-pvc
hpccbundles
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-24j28
0
true
600
PreemptLowerPriority
hpcc-agent
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
File
/tmp
IfNotPresent
--config=/etc/config/myeclccserver.yaml
--daliServers=mydali
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
myeclccserver
/dev/termination-log
eclccserver
myeclccserver-temp-volume
/tmp
myeclccserver-hpcctmp-volume
/var/lib/HPCCSystems
myeclccserver-configmap-volume
/etc/config
dll-pv
/var/lib/HPCCSystems/queries
hpccbundles
/home/hpcc/.HPCCSystems
kube-api-access-24j28
/var/run/secrets/kubernetes.io/serviceaccount
true
ECLCC_ECLREPO_PATH
/var/lib/HPCCSystems/queries
SENTINEL
/tmp/myeclccserver.sentinel
1
10
cat
/tmp/myeclccserver.sentinel
1
3
1
10
cat
/tmp/myeclccserver.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-agent
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
myeclccserver-845684c775-785rf
myeclccserver-845684c775-
default
1433382b394bc1a2d2beb2bbc58b022411c85dd7ba2928c3f71f2277a4a33faf
true
myeclccserver-845684c775
165dd3af-dfa8-45d6-84fb-109cf87b703e
apps/v1
true
ReplicaSet
1042676
830718c7-452c-43c2-bce0-c1b8fa49dcf9
2022-02-08T15:52:39Z
8.6.0-closedown0
845684c775
no
yes
myeclccserver
2021-10-21T15:24:42Z
192.168.65.4
10.1.15.48
Burstable
10.1.15.48
Initialized
2021-10-21T15:24:42Z
True
Ready
2022-02-08T14:06:27Z
True
ContainersReady
2022-02-08T14:06:27Z
True
PodScheduled
2021-10-21T15:24:42Z
True
Running
47
filebeat
true
2022-02-07T18:31:13Z
2022-02-08T14:02:22Z
Error
docker://f65041935f42f8a2940894bf0f7a9b2bf4e8b7a6526b7982b46cae42545dee58
255
docker-pullable://docker.elastic.co/beats/filebeat@sha256:979e74d11e8725d16ae052741ec020adb26716d439f5791615ba45a6a178cd3e
2022-02-08T14:03:26Z
true
docker://175b0789a7600e8353eba19033ff8fae4062a64c13d503c5ecb0f119f8de5a39
docker.elastic.co/beats/filebeat:7.12.0
myelastic-filebeat-config
384
filebeat-config
data
DirectoryOrCreate
/var/lib/myelastic-filebeat-default-data
varlibdockercontainers
/var/lib/docker/containers
varlog
/var/log
varrundockersock
/var/run/docker.sock
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-p4vgs
0
true
In
metadata.name
docker-desktop
30
PreemptLowerPriority
myelastic-filebeat
Exists
node.kubernetes.io/not-ready
NoExecute
Exists
node.kubernetes.io/unreachable
NoExecute
Exists
node.kubernetes.io/disk-pressure
NoSchedule
Exists
node.kubernetes.io/memory-pressure
NoSchedule
Exists
node.kubernetes.io/pid-pressure
NoSchedule
Exists
node.kubernetes.io/unschedulable
NoSchedule
10
5
10
sh
-c
#!/usr/bin/env bash -e
curl --fail 127.0.0.1:5066
1
3
filebeat
docker.elastic.co/beats/filebeat:7.12.0
/dev/termination-log
filebeat-config
/usr/share/filebeat/filebeat.yml
true
filebeat.yml
data
/usr/share/filebeat/data
varlibdockercontainers
/var/lib/docker/containers
true
varlog
/var/log
true
varrundockersock
/var/run/docker.sock
true
kube-api-access-p4vgs
/var/run/secrets/kubernetes.io/serviceaccount
true
POD_NAMESPACE
v1
metadata.namespace
NODE_NAME
v1
spec.nodeName
10
5
10
sh
-c
#!/usr/bin/env bash -e
filebeat test output
1
3
200Mi
1
100Mi
100m
IfNotPresent
File
0
false
-e
-E
http.enabled=true
myelastic-filebeat
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
myelastic-filebeat-46x4s
myelastic-filebeat-
default
3089bf5b18bde51db4f16068a542c2409c92d25c46c9b7025d9a66e368a30eb
true
myelastic-filebeat
3e50ce9e-6217-4064-99db-0403008b69b9
apps/v1
true
DaemonSet
1033222
2b9f399f-127f-46af-a3fc-c12e3db44aa9
2021-10-21T15:24:42Z
myelastic
1
6459878757
filebeat-7.12.0
myelastic-filebeat
HPCC
Helm
2021-10-21T15:24:42Z
192.168.65.4
10.1.15.46
Guaranteed
10.1.15.46
Initialized
2021-10-21T15:24:42Z
True
Ready
2022-02-08T14:06:44Z
True
ContainersReady
2022-02-08T14:06:44Z
True
PodScheduled
2021-10-21T15:24:42Z
True
Running
48
kibana
true
2022-02-07T18:31:07Z
2022-02-08T14:02:22Z
Error
docker://42a88d9dafa321c4c892341e55b4b44c7552da4e27021a31b1a93054e156f4e7
255
docker-pullable://docker.elastic.co/kibana/kibana@sha256:f002ce2456e37a45507e542a4791d87a0bedf7d7ec468d6a7aef85cd233eecc9
2022-02-08T14:03:26Z
true
docker://680dafc3d726b759d01bf0db4c479197263ab86a197ee5141f4adaa7502c5117
docker.elastic.co/kibana/kibana:7.12.0
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-v94lv
0
true
30
PreemptLowerPriority
default
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
kube-api-access-v94lv
/var/run/secrets/kubernetes.io/serviceaccount
true
kibana
/dev/termination-log
bash
-c
KIBANA_URL=http://localhost:5601
[ -z ${WAIT_KIBANA_READY_IN_SEC} ] && WAIT_KIBANA_READY_IN_SEC=180
END_TIME=$(expr $(date +%s) \+ ${WAIT_KIBANA_READY_IN_SEC})
while [[ "$(curl -s -o /dev/null -w '%{http_code}\n' $KIBANA_URL)" != "200" ]]; do
echo "\nKibana not ready..."
[ $(date +%s) -ge ${END_TIME} ] && break
sleep 1
done
httpcode=$(curl -s -o /dev/null -I -w "%{http_code}" -X GET "$KIBANA_URL/api/index_patterns/index_pattern/hpcc-filebeat-pattern" -H 'kbn-xsrf: true')
if [ ${httpcode} -eq 200 ]; then
echo 'Pre-existing hpcc-filebeat-pattern index pattern detected, will not re-create.'
elif [ ${httpcode} -eq 404 ]; then
echo 'hpcc-filebeat-pattern not found, will create index pattern!'
httpcode=$(curl -s -w "%{http_code}" -X POST "$KIBANA_URL/api/saved_objects/index-pattern/hpcc-filebeat-pattern" -H 'kbn-xsrf: true' -H 'Content-Type: application/json' \
-d'{ "attributes":{"title":"filebeat*","timeFieldName":"@timestamp"}}')
echo Index pattern creation response: ${httpcode}
else
echo Failed to retrieve index pattern information from Kibana: ${httpcode}
exit ${httpcode}
fi
ELASTICSEARCH_HOSTS
http://elasticsearch-master:9200
SERVER_HOST
0.0.0.0
WAIT_KIBANA_READY_IN_SEC
180
10
5
10
sh
-c
#!/usr/bin/env bash -e
# Disable nss cache to avoid filling dentry cache when calling curl
# This is required with Kibana Docker using nss < 3.52
export NSS_SDB_USE_CACHE=no
http () {
local path="${1}"
set -- -XGET -s --fail -L
if [ -n "${ELASTICSEARCH_USERNAME}" ] && [ -n "${ELASTICSEARCH_PASSWORD}" ]; then
set -- "$@" -u "${ELASTICSEARCH_USERNAME}:${ELASTICSEARCH_PASSWORD}"
fi
STATUS=$(curl --output /dev/null --write-out "%{http_code}" -k "$@" "http://localhost:5601${path}")
if [[ "${STATUS}" -eq 200 ]]; then
exit 0
fi
echo "Error: Got HTTP code ${STATUS} but expected a 200"
exit 1
}
http "/app/kibana"
3
3
2Gi
1
2Gi
1
IfNotPresent
5601
TCP
File
true
ALL
1000
docker.elastic.co/kibana/kibana:7.12.0
default
default-scheduler
ClusterFirst
1000
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
myelastic-kibana-b5b6cb7d5-gzpsm
myelastic-kibana-b5b6cb7d5-
default
97382d10-f744-4923-b289-93386d535dfd
true
myelastic-kibana-b5b6cb7d5
36009460-cc08-499a-b186-db9c610e1b83
apps/v1
true
ReplicaSet
1033245
2021-10-21T15:24:42Z
HPCC
kibana
b5b6cb7d5
myelastic
2022-02-08T15:52:38Z
192.168.65.4
10.1.15.88
BestEffort
10.1.15.88
Initialized
2022-02-08T15:52:38Z
True
Ready
2022-02-08T15:54:08Z
True
ContainersReady
2022-02-08T15:54:08Z
True
PodScheduled
2022-02-08T15:52:38Z
True
Running
0
roxie-agent-1
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:52:49Z
true
docker://904f3537ae155c9f2976aebaf4d0077b5a0eedb94c343c7af19cd6c9c7380e13
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
roxie-temp-volume
roxie-hpcctmp-volume
roxie-configmap
420
roxie-configmap-volume
dll-pv
dll-localfile-hpcc-localfile-pvc
data-pv
data-localfile-hpcc-localfile-pvc
mydropzone-pv
mydropzone-localfile-hpcc-localfile-pvc
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-jxzcn
0
true
90
PreemptLowerPriority
hpcc-default
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
testsocket
.
control:closedown
File
/var/lib/HPCCSystems
IfNotPresent
9876
roxie
TCP
--config=/etc/config/roxie.yaml
--daliServers=mydali
--channels=1
--server=true
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
roxie-agent-1
/dev/termination-log
roxie
roxie-temp-volume
/tmp
roxie-hpcctmp-volume
/var/lib/HPCCSystems
roxie-configmap-volume
/etc/config
dll-pv
/var/lib/HPCCSystems/queries
data-pv
/var/lib/HPCCSystems/hpcc-data
mydropzone-pv
/var/lib/HPCCSystems/mydropzone
kube-api-access-jxzcn
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/roxie.sentinel
1
10
cat
/tmp/roxie.sentinel.ready
1
3
1
10
cat
/tmp/roxie.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-default
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
roxie-agent-1-65c95b984b-xvd8s
roxie-agent-1-65c95b984b-
default
c03ef51665aad56971a2b3f6dbbbb780bff9976526131cb99037d9d798acfe8e
true
roxie-agent-1-65c95b984b
be6f0789-4a70-4aba-9291-f23e73238a8f
apps/v1
true
ReplicaSet
1042704
c1a7f6fa-7cf8-484c-8f37-79417337a310
2022-02-08T15:52:38Z
roxie
yes
yes
roxie-agent-1
8.6.0-closedown0
65c95b984b
roxie-server
2022-02-08T15:52:38Z
192.168.65.4
10.1.15.90
BestEffort
10.1.15.90
Initialized
2022-02-08T15:52:38Z
True
Ready
2022-02-08T15:53:58Z
True
ContainersReady
2022-02-08T15:53:58Z
True
PodScheduled
2022-02-08T15:52:38Z
True
Running
0
roxie-agent-1
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:52:52Z
true
docker://71cfde371f560f535b5078b81dab5038a07f74a77230ab3084c1adc1442ee49b
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
roxie-temp-volume
roxie-hpcctmp-volume
roxie-configmap
420
roxie-configmap-volume
dll-pv
dll-localfile-hpcc-localfile-pvc
data-pv
data-localfile-hpcc-localfile-pvc
mydropzone-pv
mydropzone-localfile-hpcc-localfile-pvc
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-2rjn2
0
true
90
PreemptLowerPriority
hpcc-default
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
testsocket
.
control:closedown
File
/var/lib/HPCCSystems
IfNotPresent
9876
roxie
TCP
--config=/etc/config/roxie.yaml
--daliServers=mydali
--channels=1
--server=true
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
roxie-agent-1
/dev/termination-log
roxie
roxie-temp-volume
/tmp
roxie-hpcctmp-volume
/var/lib/HPCCSystems
roxie-configmap-volume
/etc/config
dll-pv
/var/lib/HPCCSystems/queries
data-pv
/var/lib/HPCCSystems/hpcc-data
mydropzone-pv
/var/lib/HPCCSystems/mydropzone
kube-api-access-2rjn2
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/roxie.sentinel
1
10
cat
/tmp/roxie.sentinel.ready
1
3
1
10
cat
/tmp/roxie.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-default
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
roxie-agent-1-65c95b984b-zrn4x
roxie-agent-1-65c95b984b-
default
c03ef51665aad56971a2b3f6dbbbb780bff9976526131cb99037d9d798acfe8e
true
roxie-agent-1-65c95b984b
be6f0789-4a70-4aba-9291-f23e73238a8f
apps/v1
true
ReplicaSet
1042683
07d4b506-0d31-4ea8-974c-3681e5bc4f11
2022-02-08T15:52:38Z
roxie
yes
yes
roxie-agent-1
8.6.0-closedown0
65c95b984b
roxie-server
2022-02-08T15:52:38Z
192.168.65.4
10.1.15.99
BestEffort
10.1.15.99
Initialized
2022-02-08T15:52:38Z
True
Ready
2022-02-08T15:53:58Z
True
ContainersReady
2022-02-08T15:53:58Z
True
PodScheduled
2022-02-08T15:52:38Z
True
Running
0
roxie-agent-2
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:53:18Z
true
docker://1d1ce9458d8212a562154fa62fd09b390cea6f57349f4a42fca2c7b665e668bc
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
roxie-temp-volume
roxie-hpcctmp-volume
roxie-configmap
420
roxie-configmap-volume
dll-pv
dll-localfile-hpcc-localfile-pvc
data-pv
data-localfile-hpcc-localfile-pvc
mydropzone-pv
mydropzone-localfile-hpcc-localfile-pvc
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-5t8t7
0
true
90
PreemptLowerPriority
hpcc-default
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
testsocket
.
control:closedown
File
/var/lib/HPCCSystems
IfNotPresent
9876
roxie
TCP
--config=/etc/config/roxie.yaml
--daliServers=mydali
--channels=2
--server=true
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
roxie-agent-2
/dev/termination-log
roxie
roxie-temp-volume
/tmp
roxie-hpcctmp-volume
/var/lib/HPCCSystems
roxie-configmap-volume
/etc/config
dll-pv
/var/lib/HPCCSystems/queries
data-pv
/var/lib/HPCCSystems/hpcc-data
mydropzone-pv
/var/lib/HPCCSystems/mydropzone
kube-api-access-5t8t7
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/roxie.sentinel
1
10
cat
/tmp/roxie.sentinel.ready
1
3
1
10
cat
/tmp/roxie.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-default
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
roxie-agent-2-7bd66c4c89-wqzq2
roxie-agent-2-7bd66c4c89-
default
c03ef51665aad56971a2b3f6dbbbb780bff9976526131cb99037d9d798acfe8e
true
roxie-agent-2-7bd66c4c89
7a151de2-6549-4999-a9e3-a81fae4298a0
apps/v1
true
ReplicaSet
1042689
87921a93-07a4-4365-9499-4f0c230989a4
2022-02-08T15:52:38Z
roxie
yes
yes
roxie-agent-2
8.6.0-closedown0
7bd66c4c89
roxie-server
2022-02-08T15:52:38Z
192.168.65.4
10.1.15.87
BestEffort
10.1.15.87
Initialized
2022-02-08T15:52:38Z
True
Ready
2022-02-08T15:54:08Z
True
ContainersReady
2022-02-08T15:54:08Z
True
PodScheduled
2022-02-08T15:52:38Z
True
Running
0
roxie-agent-2
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:52:46Z
true
docker://44ea145d5b349962ca138e061a6be12f8be4c3bdafb94d33aa7af5980ae565cb
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
roxie-temp-volume
roxie-hpcctmp-volume
roxie-configmap
420
roxie-configmap-volume
dll-pv
dll-localfile-hpcc-localfile-pvc
data-pv
data-localfile-hpcc-localfile-pvc
mydropzone-pv
mydropzone-localfile-hpcc-localfile-pvc
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-6t24q
0
true
90
PreemptLowerPriority
hpcc-default
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
testsocket
.
control:closedown
File
/var/lib/HPCCSystems
IfNotPresent
9876
roxie
TCP
--config=/etc/config/roxie.yaml
--daliServers=mydali
--channels=2
--server=true
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
roxie-agent-2
/dev/termination-log
roxie
roxie-temp-volume
/tmp
roxie-hpcctmp-volume
/var/lib/HPCCSystems
roxie-configmap-volume
/etc/config
dll-pv
/var/lib/HPCCSystems/queries
data-pv
/var/lib/HPCCSystems/hpcc-data
mydropzone-pv
/var/lib/HPCCSystems/mydropzone
kube-api-access-6t24q
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/roxie.sentinel
1
10
cat
/tmp/roxie.sentinel.ready
1
3
1
10
cat
/tmp/roxie.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-default
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
roxie-agent-2-7bd66c4c89-z7f6j
roxie-agent-2-7bd66c4c89-
default
c03ef51665aad56971a2b3f6dbbbb780bff9976526131cb99037d9d798acfe8e
true
roxie-agent-2-7bd66c4c89
7a151de2-6549-4999-a9e3-a81fae4298a0
apps/v1
true
ReplicaSet
1042709
fe4d1914-df94-4371-92d1-22246b23c1f1
2022-02-08T15:52:38Z
roxie
yes
yes
roxie-agent-2
8.6.0-closedown0
7bd66c4c89
roxie-server
2022-02-08T15:52:40Z
192.168.65.4
10.1.15.98
BestEffort
10.1.15.98
Initialized
2022-02-08T15:52:40Z
True
Ready
2022-02-08T15:53:30Z
True
ContainersReady
2022-02-08T15:53:30Z
True
PodScheduled
2022-02-08T15:52:40Z
True
Running
0
roxie-toposerver
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:53:15Z
true
docker://d97378cfcd501d0b3aebde80120b46c7e15fad59513e368eb9dbf95f0c5fd1e8
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
roxie-toposerver-temp-volume
roxie-toposerver-hpcctmp-volume
roxie-toposerver-configmap
420
roxie-toposerver-configmap-volume
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-mxrpt
0
true
30
PreemptLowerPriority
hpcc-default
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
File
/var/lib/HPCCSystems
IfNotPresent
--config=/etc/config/roxie-toposerver.yaml
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
roxie-toposerver
/dev/termination-log
toposerver
roxie-toposerver-temp-volume
/tmp
roxie-toposerver-hpcctmp-volume
/var/lib/HPCCSystems
roxie-toposerver-configmap-volume
/etc/config
kube-api-access-mxrpt
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/roxie-toposerver.sentinel
1
10
cat
/tmp/roxie-toposerver.sentinel
1
3
1
10
cat
/tmp/roxie-toposerver.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-default
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
roxie-toposerver-7785b6d59f-rkgp4
roxie-toposerver-7785b6d59f-
default
3333f9b7bfed5e8b4624b09e6255fa9c2ecab38d192c5d375d5aa0bf8ec2add1
true
roxie-toposerver-7785b6d59f
be57a40b-b5c6-4553-9a6c-43f49a41cdec
apps/v1
true
ReplicaSet
1042584
c6913330-e8cf-4cbc-a6e5-219d9676e126
2022-02-08T15:52:40Z
8.6.0-closedown0
7785b6d59f
roxie
roxie-toposerver
2022-02-08T15:52:39Z
192.168.65.4
10.1.15.97
BestEffort
10.1.15.97
Initialized
2022-02-08T15:52:39Z
True
Ready
2022-02-08T15:53:39Z
True
ContainersReady
2022-02-08T15:53:39Z
True
PodScheduled
2022-02-08T15:52:39Z
True
Running
0
roxie-workunit
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:53:15Z
true
docker://fa451a3e9d80a144a6cc58d26132cb644497ecfcfc054ff97dfb07235bcc5878
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
roxie-workunit-temp-volume
roxie-workunit-hpcctmp-volume
roxie-workunit-configmap
420
roxie-workunit-configmap-volume
dll-pv
dll-localfile-hpcc-localfile-pvc
data-pv
data-localfile-hpcc-localfile-pvc
mydropzone-pv
mydropzone-localfile-hpcc-localfile-pvc
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-grx9p
0
true
30
PreemptLowerPriority
hpcc-default
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
File
/var/lib/HPCCSystems
IfNotPresent
--config=/etc/config/roxie-workunit.yaml
--daliServers=mydali
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
roxie-workunit
/dev/termination-log
agentexec
roxie-workunit-temp-volume
/tmp
roxie-workunit-hpcctmp-volume
/var/lib/HPCCSystems
roxie-workunit-configmap-volume
/etc/config
dll-pv
/var/lib/HPCCSystems/queries
data-pv
/var/lib/HPCCSystems/hpcc-data
mydropzone-pv
/var/lib/HPCCSystems/mydropzone
kube-api-access-grx9p
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/roxie-workunit.sentinel
1
10
cat
/tmp/roxie-workunit.sentinel
1
3
1
10
cat
/tmp/roxie-workunit.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-default
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
roxie-workunit-dbf9c6cfb-gfbfh
roxie-workunit-dbf9c6cfb-
default
2c9db70f9516e8dcfd53b39f52866c9f4f4c98426488e5be04a8fb8a4e02a133
true
roxie-workunit-dbf9c6cfb
f3ddb05d-92d8-4eae-923a-c87aecea5ea0
apps/v1
true
ReplicaSet
1042628
ac0272b4-e94b-4e1f-8955-436c282ee581
2022-02-08T15:52:39Z
8.6.0-closedown0
dbf9c6cfb
yes
yes
roxie-workunit
2022-02-08T15:52:38Z
192.168.65.4
10.1.15.107
BestEffort
10.1.15.107
Initialized
2022-02-08T15:52:38Z
True
Ready
2022-02-08T15:53:48Z
True
ContainersReady
2022-02-08T15:53:48Z
True
PodScheduled
2022-02-08T15:52:38Z
True
Running
0
sasha-dfurecovery-archiver
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:53:33Z
true
docker://f1f3f9709ef296eea27ffbe4c881a7cfcd48101ad5d0301cfbdaea2cbd4e5c03
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
sasha-dfurecovery-archiver-temp-volume
sasha-dfurecovery-archiver-hpcctmp-volume
sasha-dfurecovery-archiver-configmap
420
sasha-dfurecovery-archiver-configmap-volume
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-qlpw5
0
true
30
PreemptLowerPriority
hpcc-default
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
File
/var/lib/HPCCSystems
IfNotPresent
--config=/etc/config/sasha-dfurecovery-archiver.yaml
--service=dfurecovery-archiver
--daliServers=mydali
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
sasha-dfurecovery-archiver
/dev/termination-log
saserver
sasha-dfurecovery-archiver-temp-volume
/tmp
sasha-dfurecovery-archiver-hpcctmp-volume
/var/lib/HPCCSystems
sasha-dfurecovery-archiver-configmap-volume
/etc/config
kube-api-access-qlpw5
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/sasha-dfurecovery-archiver.sentinel
1
10
cat
/tmp/sasha-dfurecovery-archiver.sentinel
1
3
1
10
cat
/tmp/sasha-dfurecovery-archiver.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-default
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
sasha-dfurecovery-archiver-55ff887bf9-wbgx5
sasha-dfurecovery-archiver-55ff887bf9-
default
54fef86ac0a52d65c76a60b880f9064c54349d56b1cf5207f2c2627ddd22c92d
true
sasha-dfurecovery-archiver-55ff887bf9
6ad28160-bd25-4de5-be87-54791b2ae61c
apps/v1
true
ReplicaSet
1042666
bf13b612-6ee5-4b8c-ae4c-8de0b139bd2a
2022-02-08T15:52:38Z
8.6.0-closedown0
55ff887bf9
sasha-dfurecovery-archiver
yes
sasha-dfurecovery-archiver
2022-02-08T15:52:39Z
192.168.65.4
10.1.15.105
BestEffort
10.1.15.105
Initialized
2022-02-08T15:52:39Z
True
Ready
2022-02-08T15:53:49Z
True
ContainersReady
2022-02-08T15:53:49Z
True
PodScheduled
2022-02-08T15:52:39Z
True
Running
0
sasha-dfuwu-archiver
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:53:31Z
true
docker://cd129f743137f488d8e6eff45b469610ec2b8b87b33ef2163686f8e456fbe0df
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
sasha-dfuwu-archiver-temp-volume
sasha-dfuwu-archiver-hpcctmp-volume
sasha-dfuwu-archiver-configmap
420
sasha-dfuwu-archiver-configmap-volume
sasha-pv
sasha-localfile-hpcc-localfile-pvc
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-jjtdb
0
true
30
PreemptLowerPriority
hpcc-default
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
File
/var/lib/HPCCSystems
IfNotPresent
--config=/etc/config/sasha-dfuwu-archiver.yaml
--service=dfuwu-archiver
--daliServers=mydali
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
sasha-dfuwu-archiver
/dev/termination-log
saserver
sasha-dfuwu-archiver-temp-volume
/tmp
sasha-dfuwu-archiver-hpcctmp-volume
/var/lib/HPCCSystems
sasha-dfuwu-archiver-configmap-volume
/etc/config
sasha-pv
/var/lib/HPCCSystems/sasha
kube-api-access-jjtdb
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/sasha-dfuwu-archiver.sentinel
1
10
cat
/tmp/sasha-dfuwu-archiver.sentinel
1
3
1
10
cat
/tmp/sasha-dfuwu-archiver.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-default
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
sasha-dfuwu-archiver-7fb7b44676-jcq94
sasha-dfuwu-archiver-7fb7b44676-
default
028631a27c031614475abe5577436d0592cc4cac992bc8d3ff137bd756de78ed
true
sasha-dfuwu-archiver-7fb7b44676
fa3121ef-457d-417b-87eb-d6b161ca8f7c
apps/v1
true
ReplicaSet
1042670
f3c6f762-bef2-434b-8831-ac814319bf8e
2022-02-08T15:52:39Z
8.6.0-closedown0
7fb7b44676
sasha-dfuwu-archiver
yes
sasha-dfuwu-archiver
2022-02-08T15:52:38Z
192.168.65.4
10.1.15.89
BestEffort
10.1.15.89
Initialized
2022-02-08T15:52:38Z
True
Ready
2022-02-08T15:53:38Z
True
ContainersReady
2022-02-08T15:53:38Z
True
PodScheduled
2022-02-08T15:52:38Z
True
Running
0
sasha-file-expiry
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:52:50Z
true
docker://c0cee265af0dc3a93d89909a6dad423f1bc3dbb468cf71beee7fc37322dd55d3
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
sasha-file-expiry-temp-volume
sasha-file-expiry-hpcctmp-volume
sasha-file-expiry-configmap
420
sasha-file-expiry-configmap-volume
data-pv
data-localfile-hpcc-localfile-pvc
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-lpjh8
0
true
30
PreemptLowerPriority
hpcc-default
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
File
/var/lib/HPCCSystems
IfNotPresent
--config=/etc/config/sasha-file-expiry.yaml
--service=file-expiry
--daliServers=mydali
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
sasha-file-expiry
/dev/termination-log
saserver
sasha-file-expiry-temp-volume
/tmp
sasha-file-expiry-hpcctmp-volume
/var/lib/HPCCSystems
sasha-file-expiry-configmap-volume
/etc/config
data-pv
/var/lib/HPCCSystems/hpcc-data
kube-api-access-lpjh8
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/sasha-file-expiry.sentinel
1
10
cat
/tmp/sasha-file-expiry.sentinel
1
3
1
10
cat
/tmp/sasha-file-expiry.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-default
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
sasha-file-expiry-59d968d9b9-g7x2t
sasha-file-expiry-59d968d9b9-
default
ec091c8532139a76c127155f887ed44264e45b3bae1f519513b3d9712d499c61
true
sasha-file-expiry-59d968d9b9
8acb4843-f1d1-4c8c-a669-dc08f9cc0fba
apps/v1
true
ReplicaSet
1042600
5c0a01ff-d63c-4d40-a278-3173be41490e
2022-02-08T15:52:38Z
8.6.0-closedown0
59d968d9b9
sasha-file-expiry
yes
sasha-file-expiry
2022-02-08T15:52:40Z
192.168.65.4
10.1.15.103
BestEffort
10.1.15.103
Initialized
2022-02-08T15:52:40Z
True
Ready
2022-02-08T15:53:40Z
True
ContainersReady
2022-02-08T15:53:40Z
True
PodScheduled
2022-02-08T15:52:40Z
True
Running
0
sasha-wu-archiver
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:53:27Z
true
docker://e48775f5e25f68f29e8baa3aabf2ee6bf74ebd68aabe80f5c0f88b42a7d6edf2
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
sasha-wu-archiver-temp-volume
sasha-wu-archiver-hpcctmp-volume
sasha-wu-archiver-configmap
420
sasha-wu-archiver-configmap-volume
dll-pv
dll-localfile-hpcc-localfile-pvc
sasha-pv
sasha-localfile-hpcc-localfile-pvc
data-pv
data-localfile-hpcc-localfile-pvc
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-czlcr
0
true
30
PreemptLowerPriority
hpcc-default
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
File
/var/lib/HPCCSystems
IfNotPresent
--config=/etc/config/sasha-wu-archiver.yaml
--service=wu-archiver
--daliServers=mydali
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
sasha-wu-archiver
/dev/termination-log
saserver
sasha-wu-archiver-temp-volume
/tmp
sasha-wu-archiver-hpcctmp-volume
/var/lib/HPCCSystems
sasha-wu-archiver-configmap-volume
/etc/config
dll-pv
/var/lib/HPCCSystems/queries
sasha-pv
/var/lib/HPCCSystems/sasha
data-pv
/var/lib/HPCCSystems/hpcc-data
kube-api-access-czlcr
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/sasha-wu-archiver.sentinel
1
10
cat
/tmp/sasha-wu-archiver.sentinel
1
3
1
10
cat
/tmp/sasha-wu-archiver.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-default
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
sasha-wu-archiver-65d95ccf4b-fndl5
sasha-wu-archiver-65d95ccf4b-
default
d762ff93856e448e5c7658b2c8bdfab2151a2f926930cc2ae296089ae1fc1c58
true
sasha-wu-archiver-65d95ccf4b
ad9c3d3c-9aaf-4843-9f27-cf9edab4f10b
apps/v1
true
ReplicaSet
1042638
63854c4f-e499-4e0f-9f65-847a0a853eac
2022-02-08T15:52:40Z
8.6.0-closedown0
65d95ccf4b
sasha-wu-archiver
yes
sasha-wu-archiver
2022-02-08T15:52:38Z
192.168.65.4
10.1.15.86
BestEffort
10.1.15.86
Initialized
2022-02-08T15:52:38Z
True
Ready
2022-02-08T15:53:38Z
True
ContainersReady
2022-02-08T15:53:38Z
True
PodScheduled
2022-02-08T15:52:38Z
True
Running
0
sql2ecl
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:52:43Z
true
docker://155a2ff7557ac20bb220a7b84656c5d01c6eb2d8e4833b63a125a4a25578fb1e
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
sql2ecl-temp-volume
sql2ecl-hpcctmp-volume
sql2ecl-configmap
420
sql2ecl-configmap-volume
dll-pv
dll-localfile-hpcc-localfile-pvc
data-pv
data-localfile-hpcc-localfile-pvc
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-8vkzv
0
true
30
PreemptLowerPriority
hpcc-esp-service
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
File
/var/lib/HPCCSystems
IfNotPresent
--application=sql2ecl
--config=/etc/config/sql2ecl.yaml
--daliServers=mydali
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
sql2ecl
/dev/termination-log
esp
sql2ecl-temp-volume
/tmp
sql2ecl-hpcctmp-volume
/var/lib/HPCCSystems
sql2ecl-configmap-volume
/etc/config
dll-pv
/var/lib/HPCCSystems/queries
data-pv
/var/lib/HPCCSystems/hpcc-data
kube-api-access-8vkzv
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/sql2ecl.sentinel
1
10
cat
/tmp/sql2ecl.sentinel
1
3
1
10
cat
/tmp/sql2ecl.sentinel
1
30
true
SYS_PTRACE
10001
true
10000
false
hpcc-esp-service
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
sql2ecl-7854f898-l5qnp
sql2ecl-7854f898-
default
9775bc49759cb5228ae6f15054c017a480355397696e4f29109e9c6e836a7dff
true
sql2ecl-7854f898
85d3fe62-ef7d-446d-974e-8a6bb4e70191
apps/v1
true
ReplicaSet
1042604
09e852ef-c9d5-4d3a-89c8-d950567d774d
2022-02-08T15:52:38Z
8.6.0-closedown0
sql2ecl
7854f898
sql2ecl
yes
sql2ecl
2022-02-08T15:52:39Z
192.168.65.4
10.1.15.102
BestEffort
10.1.15.102
Initialized
2022-02-08T15:52:39Z
True
Ready
2022-02-08T15:53:26Z
True
ContainersReady
2022-02-08T15:53:26Z
True
PodScheduled
2022-02-08T15:52:39Z
True
Running
0
thor-eclagent
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:53:26Z
true
docker://7a498e062b22553ab679da1efac3ca309d56b8b2c33f56e0b3e18e62f99b9fa9
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
thor-temp-volume
thor-hpcctmp-volume
thor-configmap
420
thor-configmap-volume
dll-pv
dll-localfile-hpcc-localfile-pvc
data-pv
data-localfile-hpcc-localfile-pvc
mydropzone-pv
mydropzone-localfile-hpcc-localfile-pvc
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-84nkg
0
true
30
PreemptLowerPriority
hpcc-default
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
--config=/etc/config/thor.yaml
--daliServers=mydali
--name=thor
thor-eclagent
/dev/termination-log
agentexec
thor-temp-volume
/tmp
thor-hpcctmp-volume
/var/lib/HPCCSystems
thor-configmap-volume
/etc/config
dll-pv
/var/lib/HPCCSystems/queries
data-pv
/var/lib/HPCCSystems/hpcc-data
mydropzone-pv
/var/lib/HPCCSystems/mydropzone
kube-api-access-84nkg
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/thor-eclagent.sentinel
File
IfNotPresent
/var/lib/HPCCSystems
true
SYS_PTRACE
10001
true
10000
false
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
hpcc-default
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
thor-eclagent-5b88ff456b-mgxgx
thor-eclagent-5b88ff456b-
default
463a46dafb56419205e67be8fceea87328d1d58a3b1b9bb896d41faaf567a18f
true
thor-eclagent-5b88ff456b
49c79e94-ad92-4050-8678-e98f0e7d0a26
apps/v1
true
ReplicaSet
1042527
f40de4ca-365c-4740-84c2-190584972f36
2022-02-08T15:52:39Z
8.6.0-closedown0
5b88ff456b
yes
yes
thor-eclagent
2022-02-08T15:52:38Z
192.168.65.4
10.1.15.92
BestEffort
10.1.15.92
Initialized
2022-02-08T15:52:38Z
True
Ready
2022-02-08T15:52:58Z
True
ContainersReady
2022-02-08T15:52:58Z
True
PodScheduled
2022-02-08T15:52:38Z
True
Running
0
thor-thoragent
true
docker://sha256:8d1635a36de8a148946538df14f92e986a6d55a54b099409f17636dc6a92face
2022-02-08T15:52:57Z
true
docker://edbebb4e3f6fca643990e092f6d0b75afd1578c994d5ed11eecc904b5238dca1
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
thor-temp-volume
thor-hpcctmp-volume
thor-configmap
420
thor-configmap-volume
dll-pv
dll-localfile-hpcc-localfile-pvc
data-pv
data-localfile-hpcc-localfile-pvc
mydropzone-pv
mydropzone-localfile-hpcc-localfile-pvc
420
token
3607
ca.crt
ca.crt
kube-root-ca.crt
namespace
v1
metadata.namespace
kube-api-access-4dm64
0
true
30
PreemptLowerPriority
hpcc-thoragent
Exists
300
NoExecute
node.kubernetes.io/not-ready
Exists
300
NoExecute
node.kubernetes.io/unreachable
--config=/etc/config/thor.yaml
--componentTag=thoragent
--daliServers=mydali
--name=thor
thor-thoragent
/dev/termination-log
agentexec
thor-temp-volume
/tmp
thor-hpcctmp-volume
/var/lib/HPCCSystems
thor-configmap-volume
/etc/config
dll-pv
/var/lib/HPCCSystems/queries
data-pv
/var/lib/HPCCSystems/hpcc-data
mydropzone-pv
/var/lib/HPCCSystems/mydropzone
kube-api-access-4dm64
/var/run/secrets/kubernetes.io/serviceaccount
true
SENTINEL
/tmp/thor-thoragent.sentinel
File
IfNotPresent
/var/lib/HPCCSystems
true
SYS_PTRACE
10001
true
10000
false
hpccsystems/platform-core:d1bb52f176-Debug-dirty-2b9f4a2c60e4f2303799adda4b076104
hpcc-thoragent
default-scheduler
ClusterFirst
docker-desktop
Always
v1
Pod
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kube-controller-manager
FieldsV1
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
<_x2E_/>
Update
v1
kubelet
FieldsV1
thor-thoragent-987d5c4c9-6vrsp
thor-thoragent-987d5c4c9-
default
463a46dafb56419205e67be8fceea87328d1d58a3b1b9bb896d41faaf567a18f
true
thor-thoragent-987d5c4c9
eda0c300-fb73-4f48-b10e-bbe181b45299
apps/v1
true
ReplicaSet
1042417
891b3af0-c4b5-4d82-8192-d890ee66d145
2022-02-08T15:52:38Z
8.6.0-closedown0
987d5c4c9
no
yes
thor-thoragent
List