Merge "Add schemas for input events of ODU slice assurance usecase"
[nonrtric.git] / test / simulator-group / dmaapmr / configs / mr / MsgRtrApi.properties
1 # LICENSE_START=======================================================
2 #  org.onap.dmaap
3 #  ================================================================================
4 #  Copyright Â© 2021 Nordix Foundation. All rights reserved.
5 #  Copyright © 2017 AT&T Intellectual Property. All rights reserved.
6 #  ================================================================================
7 #  Licensed under the Apache License, Version 2.0 (the "License");
8 #  you may not use this file except in compliance with the License.
9 #  You may obtain a copy of the License at
10 #        http://www.apache.org/licenses/LICENSE-2.0
11 #
12 #  Unless required by applicable law or agreed to in writing, software
13 #  distributed under the License is distributed on an "AS IS" BASIS,
14 #  WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
15 #  See the License for the specific language governing permissions and
16 #  limitations under the License.
17 #  ============LICENSE_END=========================================================
18 #
19 #  ECOMP is a trademark and service mark of AT&T Intellectual Property.
20 #
21 ###############################################################################
22 ###############################################################################
23 ##
24 ## Cambria API Server config
25 ##
26 ## Default values are shown as commented settings.
27 ##
28 ###############################################################################
29 ##
30 ## HTTP service
31 ##
32 ## 3904 is standard as of 7/29/14.
33 #
34 ## Zookeeper Connection
35 ##
36 ## Both Cambria and Kafka make use of Zookeeper.
37 ##
38 config.zk.servers=$MR_ZOOKEEPER_APP_NAME:$MR_ZOOKEEPER_PORT
39
40 ###############################################################################
41 ##
42 ## Kafka Connection
43 ##
44 ##        Items below are passed through to Kafka's producer and consumer
45 ##        configurations (after removing "kafka.")
46 ##        if you want to change request.required.acks it can take this one value
47 #kafka.metadata.broker.list=localhost:9092,localhost:9093
48 #kafka.metadata.broker.list={{.Values.kafka.name}}:{{.Values.kafka.port}}
49 kafka.metadata.broker.list=$MR_KAFKA_APP_NAME:$MR_KAFKA_PORT
50 ##kafka.request.required.acks=-1
51 #kafka.client.zookeeper=${config.zk.servers}
52 consumer.timeout.ms=100
53 zookeeper.connection.timeout.ms=6000
54 zookeeper.session.timeout.ms=20000
55 zookeeper.sync.time.ms=2000
56 auto.commit.interval.ms=1000
57 fetch.message.max.bytes =1000000
58 auto.commit.enable=false
59
60 #(backoff*retries > zksessiontimeout)
61 kafka.rebalance.backoff.ms=10000
62 kafka.rebalance.max.retries=6
63
64
65 ###############################################################################
66 ##
67 ##        Secured Config
68 ##
69 ##        Some data stored in the config system is sensitive -- API keys and secrets,
70 ##        for example. to protect it, we use an encryption layer for this section
71 ##        of the config.
72 ##
73 ## The key is a base64 encode AES key. This must be created/configured for
74 ## each installation.
75 #cambria.secureConfig.key=
76 ##
77 ## The initialization vector is a 16 byte value specific to the secured store.
78 ## This must be created/configured for each installation.
79 #cambria.secureConfig.iv=
80
81 ## Southfield Sandbox
82 cambria.secureConfig.key=b/7ouTn9FfEw2PQwL0ov/Q==
83 cambria.secureConfig.iv=wR9xP5k5vbz/xD0LmtqQLw==
84 authentication.adminSecret=fe3cCompound
85
86
87 ###############################################################################
88 ##
89 ## Consumer Caching
90 ##
91 ##        Kafka expects live connections from the consumer to the broker, which
92 ##        obviously doesn't work over connectionless HTTP requests. The Cambria
93 ##        server proxies HTTP requests into Kafka consumer sessions that are kept
94 ##        around for later re-use. Not doing so is costly for setup per request,
95 ##        which would substantially impact a high volume consumer's performance.
96 ##
97 ##        This complicates Cambria server failover, because we often need server
98 ##        A to close its connection before server B brings up the replacement.
99 ##
100
101 ## The consumer cache is normally enabled.
102 #cambria.consumer.cache.enabled=true
103
104 ## Cached consumers are cleaned up after a period of disuse. The server inspects
105 ## consumers every sweepFreqSeconds and will clean up any connections that are
106 ## dormant for touchFreqMs.
107 #cambria.consumer.cache.sweepFreqSeconds=15
108 cambria.consumer.cache.touchFreqMs=120000
109 ##stickforallconsumerrequests=false
110 ## The cache is managed through ZK. The default value for the ZK connection
111 ## string is the same as config.zk.servers.
112 #cambria.consumer.cache.zkConnect=${config.zk.servers}
113
114 ##
115 ## Shared cache information is associated with this node's name. The default
116 ## name is the hostname plus the HTTP service port this host runs on. (The
117 ## hostname is determined via InetAddress.getLocalHost ().getCanonicalHostName(),
118 ## which is not always adequate.) You can set this value explicitly here.
119 ##
120 #cambria.api.node.identifier=<use-something-unique-to-this-instance>
121
122 #cambria.rateLimit.maxEmptyPollsPerMinute=30
123 #cambria.rateLimitActual.delay.ms=10
124
125 ###############################################################################
126 ##
127 ## Metrics Reporting
128 ##
129 ##        This server can report its metrics periodically on a topic.
130 ##
131 #metrics.send.cambria.enabled=true
132 #metrics.send.cambria.topic=cambria.apinode.metrics
133 #msgrtr.apinode.metrics.dmaap
134 #metrics.send.cambria.sendEverySeconds=60
135
136 cambria.consumer.cache.zkBasePath=/fe3c/cambria/consumerCache
137 consumer.timeout=17
138 default.partitions=3
139 default.replicas=1
140 ##############################################################################
141 #100mb
142 maxcontentlength=10000
143
144
145 ##############################################################################
146 #AAF Properties
147 msgRtr.namespace.aaf=org.onap.dmaap.mr.topic
148 msgRtr.topicfactory.aaf=org.onap.dmaap.mr.topicFactory|:org.onap.dmaap.mr.topic:
149 enforced.topic.name.AAF=org.onap.dmaap.mr
150 forceAAF=false
151 transidUEBtopicreqd=false
152 defaultNSforUEB=org.onap.dmaap.mr
153 ##############################################################################
154 #Mirror Maker Agent
155
156 msgRtr.mirrormakeradmin.aaf=org.onap.dmaap.mr.mirrormaker|*|admin
157 msgRtr.mirrormakeruser.aaf=org.onap.dmaap.mr.mirrormaker|*|user
158 msgRtr.mirrormakeruser.aaf.create=org.onap.dmaap.mr.topicFactory|:org.onap.dmaap.mr.topic:
159 msgRtr.mirrormaker.timeout=15000
160 msgRtr.mirrormaker.topic=org.onap.dmaap.mr.mirrormakeragent
161 msgRtr.mirrormaker.consumergroup=mmagentserver
162 msgRtr.mirrormaker.consumerid=1
163
164 kafka.max.poll.interval.ms=300000
165 kafka.heartbeat.interval.ms=60000
166 kafka.session.timeout.ms=240000
167 kafka.max.poll.records=1000