ceph: remove ceph user and disable systemd services
[pti/rtp.git] / meta-stx / recipes-extended / ceph / files / ceph.conf
1 #
2 ## Copyright (C) 2019 Wind River Systems, Inc.
3 #
4 #  Licensed under the Apache License, Version 2.0 (the "License");
5 #  you may not use this file except in compliance with the License.
6 #  You may obtain a copy of the License at
7 #
8 #      http://www.apache.org/licenses/LICENSE-2.0
9 #
10 #  Unless required by applicable law or agreed to in writing, software
11 #  distributed under the License is distributed on an "AS IS" BASIS,
12 #  WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13 #  See the License for the specific language governing permissions and
14 #  limitations under the License.
15
16 [global]
17         # Unique ID for the cluster.
18         fsid = %CLUSTER_UUID%
19         # Public network where the monitor is connected to, i.e, 128.224.0.0/16
20         #public network = 127.0.0.1/24
21         # For version 0.55 and beyond, you must explicitly enable
22         # or disable authentication with "auth" entries in [global].
23         auth_cluster_required = cephx
24         auth_service_required = cephx
25         auth_client_required = cephx
26         osd_journal_size = 1024
27
28         # Uncomment the following line if you are mounting with ext4
29         # filestore xattr use omap = true
30
31         # Number of replicas of objects. Write an object 2 times.
32         # Cluster cannot reach an active + clean state until there's enough OSDs
33         # to handle the number of copies of an object. In this case, it requires
34         # at least 2 OSDs
35         osd_pool_default_size = 2
36
37         # Allow writing one copy in a degraded state.
38         osd_pool_default_min_size = 1
39
40         # Ensure you have a realistic number of placement groups. We recommend
41         # approximately 100 per OSD. E.g., total number of OSDs multiplied by 100
42         # divided by the number of replicas (i.e., osd pool default size). So for
43         # 2 OSDs and osd pool default size = 2, we'd recommend approximately
44         # (100 * 2) / 2 = 100.
45         osd_pool_default_pg_num = 64
46         osd_pool_default_pgp_num = 64
47         osd_crush_chooseleaf_type = 1
48         setuser match path = /var/lib/ceph/$type/$cluster-$id
49
50         # Override Jewel default of 2 reporters. StarlingX has replication factor 2
51         mon_osd_min_down_reporters = 1
52
53         # Use Hammer's report interval default value
54         osd_mon_report_interval_max = 120
55
56     # Configure max PGs per OSD to cover worst-case scenario of all possible
57     # StarlingX deployments i.e. AIO-SX with one OSD. Otherwise using
58     # the default value provided by Ceph Mimic leads to "too many PGs per OSD"
59     # health warning as the pools needed by stx-openstack are being created.
60     mon_max_pg_per_osd = 2048
61     osd_max_pg_per_osd_hard_ratio = 1.2
62
63 [osd]
64         osd_mkfs_type = xfs
65         osd_mkfs_options_xfs = "-f"
66         osd_mount_options_xfs = "rw,noatime,inode64,logbufs=8,logbsize=256k"
67
68 [mon]
69     mon warn on legacy crush tunables = false
70     # Quiet new warnings on move to Hammer
71     mon pg warn max per osd = 2048
72     mon pg warn max object skew = 0
73     mgr initial modules = restful