<div dir="ltr"><div>Yes! I have tried it and succeeded.<br><br><br></div><div>Clustered LVM can take snapshot only on  exclusively lock mode.<br></div><div><br><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">2016-12-06 16:23 GMT+08:00 Ulrich Windl <span dir="ltr"><<a href="mailto:Ulrich.Windl@rz.uni-regensburg.de" target="_blank">Ulrich.Windl@rz.uni-regensburg.de</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">>>> su liu <<a href="mailto:liusu8788@gmail.com">liusu8788@gmail.com</a>> schrieb am 06.12.2016 um 02:16 in Nachricht<br>
<CAN2gjWR_nSOGeZoc7RK_6WicA2L=<wbr>KM_1=<a href="mailto:Ar9K5--qi7q3vFffw@mail.gmail.com">Ar9K5--qi7q3vFffw@mail.<wbr>gmail.com</a>>:<br>
> *Hi all,*<br>
><br>
><br>
> *I am new to pacemaker and I have some questions about the clvmd +<br>
<span class="">> pacemaker + corosync. I wish you could explain it for me if you are free.<br>
</span>> thank you very much!*<br>
> *I have 2 nodes and the pacemaker's status is as follows:*<br>
<div><div class="h5">><br>
> [root@controller ~]# pcs status --full<br>
> Cluster name: mycluster<br>
> Last updated: Mon Dec  5 18:15:12 2016        Last change: Fri Dec  2<br>
> 15:01:03 2016 by root via cibadmin on compute1<br>
> Stack: corosync<br>
> Current DC: compute1 (2) (version 1.1.13-10.el7_2.4-44eb2dd) - partition<br>
> with quorum<br>
> 2 nodes and 4 resources configured<br>
><br>
> Online: [ compute1 (2) controller (1) ]<br>
><br>
> Full list of resources:<br>
><br>
>  Clone Set: dlm-clone [dlm]<br>
>      dlm    (ocf::pacemaker:controld):    Started compute1<br>
>      dlm    (ocf::pacemaker:controld):    Started controller<br>
>      Started: [ compute1 controller ]<br>
>  Clone Set: clvmd-clone [clvmd]<br>
>      clvmd    (ocf::heartbeat:clvm):    Started compute1<br>
>      clvmd    (ocf::heartbeat:clvm):    Started controller<br>
>      Started: [ compute1 controller ]<br>
><br>
> Node Attributes:<br>
> * Node compute1 (2):<br>
> * Node controller (1):<br>
><br>
> Migration Summary:<br>
> * Node compute1 (2):<br>
> * Node controller (1):<br>
><br>
> PCSD Status:<br>
>   controller: Online<br>
>   compute1: Online<br>
><br>
> Daemon Status:<br>
>   corosync: active/disabled<br>
>   pacemaker: active/disabled<br>
>   pcsd: active/enabled<br>
><br>
><br>
><br>
</div></div>> *I create a lvm on controller node and it can be seen on the compute1<br>
<span class="">> node immediately with 'lvs' command. but the lvm it not activate on<br>
</span>> compute1.*<br>
> *then i want to create a snapshot of the lvm, but failed with the error<br>
> message:*<br>
><br>
><br>
><br>
> *### volume-4fad87bb-3d4c-4a96-<wbr>bef1-8799980050d1 must be active exclusively<br>
> to create snapshot ###*<br>
> *Can someone tell me how to snapshot a lvm in the cluster lvm environment?<br>
> thank you very much。*<br>
<br>
Did you try "vgchange -a e ..."?<br>
<div class="HOEnZb"><div class="h5"><br>
><br>
><br>
> Additional information:<br>
><br>
> [root@controller ~]# vgdisplay<br>
>   --- Volume group ---<br>
>   VG Name               cinder-volumes<br>
>   System ID<br>
>   Format                lvm2<br>
>   Metadata Areas        1<br>
>   Metadata Sequence No  19<br>
>   VG Access             read/write<br>
>   VG Status             resizable<br>
>   Clustered             yes<br>
>   Shared                no<br>
>   MAX LV                0<br>
>   Cur LV                1<br>
>   Open LV               0<br>
>   Max PV                0<br>
>   Cur PV                1<br>
>   Act PV                1<br>
>   VG Size               1000.00 GiB<br>
>   PE Size               4.00 MiB<br>
>   Total PE              255999<br>
>   Alloc PE / Size       256 / 1.00 GiB<br>
>   Free  PE / Size       255743 / 999.00 GiB<br>
>   VG UUID               aLamHi-mMcI-2NsC-Spjm-QWZr-<wbr>MzHx-pPYSTt<br>
><br>
> [root@controller ~]# rpm -qa |grep pacem<br>
> pacemaker-cli-1.1.13-10.el7_2.<wbr>4.x86_64<br>
> pacemaker-libs-1.1.13-10.el7_<wbr>2.4.x86_64<br>
> pacemaker-1.1.13-10.el7_2.4.<wbr>x86_64<br>
> pacemaker-cluster-libs-1.1.13-<wbr>10.el7_2.4.x86_64<br>
><br>
><br>
> [root@controller ~]# lvs<br>
>   LV                                          VG             Attr<br>
> LSize Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert<br>
>   volume-1b0ea468-37c8-4b47-<wbr>a6fa-6cce65b068b5 cinder-volumes -wi-a-----<br>
> 1.00g<br>
><br>
><br>
> [root@compute1 ~]# lvs<br>
>   LV                                          VG             Attr<br>
> LSize Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert<br>
>   volume-1b0ea468-37c8-4b47-<wbr>a6fa-6cce65b068b5 cinder-volumes -wi-------<br>
> 1.00g<br>
><br>
><br>
> thank you very much!<br>
<br>
<br>
<br>
<br>
</div></div><div class="HOEnZb"><div class="h5">______________________________<wbr>_________________<br>
Users mailing list: <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
<a href="http://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.clusterlabs.org/<wbr>mailman/listinfo/users</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" rel="noreferrer" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" rel="noreferrer" target="_blank">http://www.clusterlabs.org/<wbr>doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" rel="noreferrer" target="_blank">http://bugs.clusterlabs.org</a><br>
</div></div></blockquote></div><br></div>