Sync up to the latest it/dep commit.
[ric-plt/ric-dep.git] / helm / infrastructure / subcharts / kong / charts / cassandra / templates / NOTES.txt
1 Cassandra CQL can be accessed via port {{ .Values.config.ports.cql }} on the following DNS name from within your cluster:
2 Cassandra Thrift can be accessed via port {{ .Values.config.ports.thrift }} on the following DNS name from within your cluster:
3
4 If you want to connect to the remote instance with your local Cassandra CQL cli. To forward the API port to localhost:9042 run the following:
5 - kubectl port-forward --namespace {{ .Release.Namespace }} $(kubectl get pods --namespace {{ .Release.Namespace }} -l app={{ template "cassandra.name" . }},release={{ .Release.Name }} -o jsonpath='{ .items[0].metadata.name }') 9042:{{ .Values.config.ports.cql }}
6
7 If you want to connect to the Cassandra CQL run the following:
8 {{- if contains "NodePort" .Values.service.type }}
9 - export CQL_PORT=$(kubectl get --namespace {{ .Release.Namespace }} -o jsonpath="{.spec.ports[0].nodePort}" services {{ template "cassandra.fullname" . }})
10 - export CQL_HOST=$(kubectl get nodes --namespace {{ .Release.Namespace }} -o jsonpath="{.items[0].status.addresses[0].address}")
11 - cqlsh $CQL_HOST $CQL_PORT
12
13 {{- else if contains "LoadBalancer" .Values.service.type }}
14   NOTE: It may take a few minutes for the LoadBalancer IP to be available.
15         Watch the status with: 'kubectl get svc --namespace {{ .Release.Namespace }} -w {{ template "cassandra.fullname" . }}'
16 - export SERVICE_IP=$(kubectl get svc --namespace {{ .Release.Namespace }} {{ template "cassandra.fullname" . }} -o jsonpath='{.status.loadBalancer.ingress[0].ip}')
17 - echo cqlsh $SERVICE_IP
18 {{- else if contains "ClusterIP" .Values.service.type }}
19 - kubectl port-forward --namespace {{ .Release.Namespace }} $(kubectl get pods --namespace {{ .Release.Namespace }} -l "app={{ template "cassandra.name" . }},release={{ .Release.Name }}" -o jsonpath="{.items[0].metadata.name}") 9042:{{ .Values.config.ports.cql }}
20   echo cqlsh 127.0.0.1 9042
21 {{- end }}
22
23 You can also see the cluster status by run the following:
24 - kubectl exec -it --namespace {{ .Release.Namespace }} $(kubectl get pods --namespace {{ .Release.Namespace }} -l app={{ template "cassandra.name" . }},release={{ .Release.Name }} -o jsonpath='{.items[0].metadata.name}') nodetool status
25
26 To tail the logs for the Cassandra pod run the following:
27 - kubectl logs -f --namespace {{ .Release.Namespace }} $(kubectl get pods --namespace {{ .Release.Namespace }} -l app={{ template "cassandra.name" . }},release={{ .Release.Name }} -o jsonpath='{ .items[0].metadata.name }')
28
29 {{- if not .Values.persistence.enabled }}
30
31 Note that the cluster is running with node-local storage instead of PersistentVolumes. In order to prevent data loss,
32 pods will be decommissioned upon termination. Decommissioning may take some time, so you might also want to adjust the
33 pod termination gace period, which is currently set to {{ .Values.podSettings.terminationGracePeriodSeconds }} seconds.
34
35 {{- end}}