Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
Fix race conditions in synchronous standby management.
authorTom Lane <tgl@sss.pgh.pa.us>
Sat, 18 Apr 2020 18:02:44 +0000 (14:02 -0400)
committerTom Lane <tgl@sss.pgh.pa.us>
Sat, 18 Apr 2020 18:02:44 +0000 (14:02 -0400)
We have repeatedly seen the buildfarm reach the Assert(false) in
SyncRepGetSyncStandbysPriority.  This apparently is due to failing to
consider the possibility that the sync_standby_priority values in
shared memory might be inconsistent; but they will be whenever only
some of the walsenders have updated their values after a change in
the synchronous_standby_names setting.  That function is vastly too
complex for what it does, anyway, so rewriting it seems better than
trying to apply a band-aid fix.

Furthermore, the API of SyncRepGetSyncStandbys is broken by design:
it returns a list of WalSnd array indexes, but there is nothing
guaranteeing that the contents of the WalSnd array remain stable.
Thus, if some walsender exits and then a new walsender process
takes over that WalSnd array slot, a caller might make use of
WAL position data that it should not, potentially leading to
incorrect decisions about whether to release transactions that
are waiting for synchronous commit.

To fix, replace SyncRepGetSyncStandbys with a new function
SyncRepGetCandidateStandbys that copies all the required data
from shared memory while holding the relevant mutexes.  If the
associated walsender process then exits, this data is still safe to
make release decisions with, since we know that that much WAL *was*
sent to a valid standby server.  This incidentally means that we no
longer need to treat sync_standby_priority as protected by the
SyncRepLock rather than the per-walsender mutex.

SyncRepGetSyncStandbys is no longer used by the core code, so remove
it entirely in HEAD.  However, it seems possible that external code is
relying on that function, so do not remove it from the back branches.
Instead, just remove the known-incorrect Assert.  When the bug occurs,
the function will return a too-short list, which callers should treat
as meaning there are not enough sync standbys, which seems like a
reasonably safe fallback until the inconsistent state is resolved.
Moreover it's bug-compatible with what has been happening in non-assert
builds.  We cannot do anything about the walsender-replacement race
condition without an API/ABI break.

The bogus assertion exists back to 9.6, but 9.6 is sufficiently
different from the later branches that the patch doesn't apply at all.
I chose to just remove the bogus assertion in 9.6, feeling that the
probability of a bad outcome from the walsender-replacement race
condition is too low to justify rewriting the whole patch for 9.6.

Discussion: https://postgr.es/m/21519.1585272409@sss.pgh.pa.us

src/backend/replication/syncrep.c
src/backend/replication/walsender.c
src/include/replication/syncrep.h
src/include/replication/walsender_private.h

index 864c6cba055b792552b439a29c7a72f7ec49699f..c53b3d61c1f04b766546aa5ec077ce7b6c3b467d 100644 (file)
@@ -108,14 +108,18 @@ static bool SyncRepGetSyncRecPtr(XLogRecPtr *writePtr,
 static void SyncRepGetOldestSyncRecPtr(XLogRecPtr *writePtr,
                                       XLogRecPtr *flushPtr,
                                       XLogRecPtr *applyPtr,
-                                      List *sync_standbys);
+                                      SyncRepStandbyData *sync_standbys,
+                                      int num_standbys);
 static void SyncRepGetNthLatestSyncRecPtr(XLogRecPtr *writePtr,
                                          XLogRecPtr *flushPtr,
                                          XLogRecPtr *applyPtr,
-                                         List *sync_standbys, uint8 nth);
+                                         SyncRepStandbyData *sync_standbys,
+                                         int num_standbys,
+                                         uint8 nth);
 static int SyncRepGetStandbyPriority(void);
 static List *SyncRepGetSyncStandbysPriority(bool *am_sync);
 static List *SyncRepGetSyncStandbysQuorum(bool *am_sync);
+static int standby_priority_comparator(const void *a, const void *b);
 static int cmp_lsn(const void *a, const void *b);
 
 #ifdef USE_ASSERT_CHECKING
@@ -399,9 +403,10 @@ SyncRepInitConfig(void)
    priority = SyncRepGetStandbyPriority();
    if (MyWalSnd->sync_standby_priority != priority)
    {
-       LWLockAcquire(SyncRepLock, LW_EXCLUSIVE);
+       SpinLockAcquire(&MyWalSnd->mutex);
        MyWalSnd->sync_standby_priority = priority;
-       LWLockRelease(SyncRepLock);
+       SpinLockRelease(&MyWalSnd->mutex);
+
        ereport(DEBUG1,
                (errmsg("standby \"%s\" now has synchronous standby priority %u",
                        application_name, priority)));
@@ -452,7 +457,11 @@ SyncRepReleaseWaiters(void)
 
    /*
     * Check whether we are a sync standby or not, and calculate the synced
-    * positions among all sync standbys.
+    * positions among all sync standbys.  (Note: although this step does not
+    * of itself require holding SyncRepLock, it seems like a good idea to do
+    * it after acquiring the lock.  This ensures that the WAL pointers we use
+    * to release waiters are newer than any previous execution of this
+    * routine used.)
     */
    got_recptr = SyncRepGetSyncRecPtr(&writePtr, &flushPtr, &applyPtr, &am_sync);
 
@@ -527,25 +536,41 @@ static bool
 SyncRepGetSyncRecPtr(XLogRecPtr *writePtr, XLogRecPtr *flushPtr,
                     XLogRecPtr *applyPtr, bool *am_sync)
 {
-   List       *sync_standbys;
+   SyncRepStandbyData *sync_standbys;
+   int         num_standbys;
+   int         i;
 
+   /* Initialize default results */
    *writePtr = InvalidXLogRecPtr;
    *flushPtr = InvalidXLogRecPtr;
    *applyPtr = InvalidXLogRecPtr;
    *am_sync = false;
 
+   /* Quick out if not even configured to be synchronous */
+   if (SyncRepConfig == NULL)
+       return false;
+
    /* Get standbys that are considered as synchronous at this moment */
-   sync_standbys = SyncRepGetSyncStandbys(am_sync);
+   num_standbys = SyncRepGetCandidateStandbys(&sync_standbys);
+
+   /* Am I among the candidate sync standbys? */
+   for (i = 0; i < num_standbys; i++)
+   {
+       if (sync_standbys[i].is_me)
+       {
+           *am_sync = true;
+           break;
+       }
+   }
 
    /*
-    * Quick exit if we are not managing a sync standby or there are not
-    * enough synchronous standbys.
+    * Nothing more to do if we are not managing a sync standby or there are
+    * not enough synchronous standbys.
     */
    if (!(*am_sync) ||
-       SyncRepConfig == NULL ||
-       list_length(sync_standbys) < SyncRepConfig->num_sync)
+       num_standbys < SyncRepConfig->num_sync)
    {
-       list_free(sync_standbys);
+       pfree(sync_standbys);
        return false;
    }
 
@@ -565,15 +590,16 @@ SyncRepGetSyncRecPtr(XLogRecPtr *writePtr, XLogRecPtr *flushPtr,
    if (SyncRepConfig->syncrep_method == SYNC_REP_PRIORITY)
    {
        SyncRepGetOldestSyncRecPtr(writePtr, flushPtr, applyPtr,
-                                  sync_standbys);
+                                  sync_standbys, num_standbys);
    }
    else
    {
        SyncRepGetNthLatestSyncRecPtr(writePtr, flushPtr, applyPtr,
-                                     sync_standbys, SyncRepConfig->num_sync);
+                                     sync_standbys, num_standbys,
+                                     SyncRepConfig->num_sync);
    }
 
-   list_free(sync_standbys);
+   pfree(sync_standbys);
    return true;
 }
 
@@ -581,27 +607,24 @@ SyncRepGetSyncRecPtr(XLogRecPtr *writePtr, XLogRecPtr *flushPtr,
  * Calculate the oldest Write, Flush and Apply positions among sync standbys.
  */
 static void
-SyncRepGetOldestSyncRecPtr(XLogRecPtr *writePtr, XLogRecPtr *flushPtr,
-                          XLogRecPtr *applyPtr, List *sync_standbys)
+SyncRepGetOldestSyncRecPtr(XLogRecPtr *writePtr,
+                          XLogRecPtr *flushPtr,
+                          XLogRecPtr *applyPtr,
+                          SyncRepStandbyData *sync_standbys,
+                          int num_standbys)
 {
-   ListCell   *cell;
+   int         i;
 
    /*
     * Scan through all sync standbys and calculate the oldest Write, Flush
-    * and Apply positions.
+    * and Apply positions.  We assume *writePtr et al were initialized to
+    * InvalidXLogRecPtr.
     */
-   foreach(cell, sync_standbys)
+   for (i = 0; i < num_standbys; i++)
    {
-       WalSnd     *walsnd = &WalSndCtl->walsnds[lfirst_int(cell)];
-       XLogRecPtr  write;
-       XLogRecPtr  flush;
-       XLogRecPtr  apply;
-
-       SpinLockAcquire(&walsnd->mutex);
-       write = walsnd->write;
-       flush = walsnd->flush;
-       apply = walsnd->apply;
-       SpinLockRelease(&walsnd->mutex);
+       XLogRecPtr  write = sync_standbys[i].write;
+       XLogRecPtr  flush = sync_standbys[i].flush;
+       XLogRecPtr  apply = sync_standbys[i].apply;
 
        if (XLogRecPtrIsInvalid(*writePtr) || *writePtr > write)
            *writePtr = write;
@@ -617,38 +640,36 @@ SyncRepGetOldestSyncRecPtr(XLogRecPtr *writePtr, XLogRecPtr *flushPtr,
  * standbys.
  */
 static void
-SyncRepGetNthLatestSyncRecPtr(XLogRecPtr *writePtr, XLogRecPtr *flushPtr,
-                             XLogRecPtr *applyPtr, List *sync_standbys, uint8 nth)
+SyncRepGetNthLatestSyncRecPtr(XLogRecPtr *writePtr,
+                             XLogRecPtr *flushPtr,
+                             XLogRecPtr *applyPtr,
+                             SyncRepStandbyData *sync_standbys,
+                             int num_standbys,
+                             uint8 nth)
 {
-   ListCell   *cell;
    XLogRecPtr *write_array;
    XLogRecPtr *flush_array;
    XLogRecPtr *apply_array;
-   int         len;
-   int         i = 0;
-
-   len = list_length(sync_standbys);
-   write_array = (XLogRecPtr *) palloc(sizeof(XLogRecPtr) * len);
-   flush_array = (XLogRecPtr *) palloc(sizeof(XLogRecPtr) * len);
-   apply_array = (XLogRecPtr *) palloc(sizeof(XLogRecPtr) * len);
+   int         i;
 
-   foreach(cell, sync_standbys)
-   {
-       WalSnd     *walsnd = &WalSndCtl->walsnds[lfirst_int(cell)];
+   /* Should have enough candidates, or somebody messed up */
+   Assert(nth > 0 && nth <= num_standbys);
 
-       SpinLockAcquire(&walsnd->mutex);
-       write_array[i] = walsnd->write;
-       flush_array[i] = walsnd->flush;
-       apply_array[i] = walsnd->apply;
-       SpinLockRelease(&walsnd->mutex);
+   write_array = (XLogRecPtr *) palloc(sizeof(XLogRecPtr) * num_standbys);
+   flush_array = (XLogRecPtr *) palloc(sizeof(XLogRecPtr) * num_standbys);
+   apply_array = (XLogRecPtr *) palloc(sizeof(XLogRecPtr) * num_standbys);
 
-       i++;
+   for (i = 0; i < num_standbys; i++)
+   {
+       write_array[i] = sync_standbys[i].write;
+       flush_array[i] = sync_standbys[i].flush;
+       apply_array[i] = sync_standbys[i].apply;
    }
 
    /* Sort each array in descending order */
-   qsort(write_array, len, sizeof(XLogRecPtr), cmp_lsn);
-   qsort(flush_array, len, sizeof(XLogRecPtr), cmp_lsn);
-   qsort(apply_array, len, sizeof(XLogRecPtr), cmp_lsn);
+   qsort(write_array, num_standbys, sizeof(XLogRecPtr), cmp_lsn);
+   qsort(flush_array, num_standbys, sizeof(XLogRecPtr), cmp_lsn);
+   qsort(apply_array, num_standbys, sizeof(XLogRecPtr), cmp_lsn);
 
    /* Get Nth latest Write, Flush, Apply positions */
    *writePtr = write_array[nth - 1];
@@ -677,6 +698,111 @@ cmp_lsn(const void *a, const void *b)
        return 1;
 }
 
+/*
+ * Return data about walsenders that are candidates to be sync standbys.
+ *
+ * *standbys is set to a palloc'd array of structs of per-walsender data,
+ * and the number of valid entries (candidate sync senders) is returned.
+ * (This might be more or fewer than num_sync; caller must check.)
+ */
+int
+SyncRepGetCandidateStandbys(SyncRepStandbyData **standbys)
+{
+   int         i;
+   int         n;
+
+   /* Create result array */
+   *standbys = (SyncRepStandbyData *)
+       palloc(max_wal_senders * sizeof(SyncRepStandbyData));
+
+   /* Quick exit if sync replication is not requested */
+   if (SyncRepConfig == NULL)
+       return 0;
+
+   /* Collect raw data from shared memory */
+   n = 0;
+   for (i = 0; i < max_wal_senders; i++)
+   {
+       volatile WalSnd *walsnd;    /* Use volatile pointer to prevent code
+                                    * rearrangement */
+       SyncRepStandbyData *stby;
+       WalSndState state;      /* not included in SyncRepStandbyData */
+
+       walsnd = &WalSndCtl->walsnds[i];
+       stby = *standbys + n;
+
+       SpinLockAcquire(&walsnd->mutex);
+       stby->pid = walsnd->pid;
+       state = walsnd->state;
+       stby->write = walsnd->write;
+       stby->flush = walsnd->flush;
+       stby->apply = walsnd->apply;
+       stby->sync_standby_priority = walsnd->sync_standby_priority;
+       SpinLockRelease(&walsnd->mutex);
+
+       /* Must be active */
+       if (stby->pid == 0)
+           continue;
+
+       /* Must be streaming or stopping */
+       if (state != WALSNDSTATE_STREAMING &&
+           state != WALSNDSTATE_STOPPING)
+           continue;
+
+       /* Must be synchronous */
+       if (stby->sync_standby_priority == 0)
+           continue;
+
+       /* Must have a valid flush position */
+       if (XLogRecPtrIsInvalid(stby->flush))
+           continue;
+
+       /* OK, it's a candidate */
+       stby->walsnd_index = i;
+       stby->is_me = (walsnd == MyWalSnd);
+       n++;
+   }
+
+   /*
+    * In quorum mode, we return all the candidates.  In priority mode, if we
+    * have too many candidates then return only the num_sync ones of highest
+    * priority.
+    */
+   if (SyncRepConfig->syncrep_method == SYNC_REP_PRIORITY &&
+       n > SyncRepConfig->num_sync)
+   {
+       /* Sort by priority ... */
+       qsort(*standbys, n, sizeof(SyncRepStandbyData),
+             standby_priority_comparator);
+       /* ... then report just the first num_sync ones */
+       n = SyncRepConfig->num_sync;
+   }
+
+   return n;
+}
+
+/*
+ * qsort comparator to sort SyncRepStandbyData entries by priority
+ */
+static int
+standby_priority_comparator(const void *a, const void *b)
+{
+   const SyncRepStandbyData *sa = (const SyncRepStandbyData *) a;
+   const SyncRepStandbyData *sb = (const SyncRepStandbyData *) b;
+
+   /* First, sort by increasing priority value */
+   if (sa->sync_standby_priority != sb->sync_standby_priority)
+       return sa->sync_standby_priority - sb->sync_standby_priority;
+
+   /*
+    * We might have equal priority values; arbitrarily break ties by position
+    * in the WALSnd array.  (This is utterly bogus, since that is arrival
+    * order dependent, but there are regression tests that rely on it.)
+    */
+   return sa->walsnd_index - sb->walsnd_index;
+}
+
+
 /*
  * Return the list of sync standbys, or NIL if no sync standby is connected.
  *
@@ -684,6 +810,10 @@ cmp_lsn(const void *a, const void *b)
  *
  * On return, *am_sync is set to true if this walsender is connecting to
  * sync standby. Otherwise it's set to false.
+ *
+ * XXX This function is BROKEN and should not be used in new code.  It has
+ * an inherent race condition, since the returned list of integer indexes
+ * might no longer correspond to reality.
  */
 List *
 SyncRepGetSyncStandbys(bool *am_sync)
@@ -943,8 +1073,15 @@ SyncRepGetSyncStandbysPriority(bool *am_sync)
        priority = next_highest_priority;
    }
 
-   /* never reached, but keep compiler quiet */
-   Assert(false);
+   /*
+    * We might get here if the set of sync_standby_priority values in shared
+    * memory is inconsistent, as can happen transiently after a change in the
+    * synchronous_standby_names setting.  In that case, just return the
+    * incomplete list we have so far.  That will cause the caller to decide
+    * there aren't enough synchronous candidates, which should be a safe
+    * choice until the priority values become consistent again.
+    */
+   list_free(pending);
    return result;
 }
 
index 09d4fdaca6aea45b85539aa1705334bb917647d3..89fbb6fd92788fca66eeb93aaabed7f63dd940c2 100644 (file)
@@ -2309,14 +2309,16 @@ InitWalSenderSlot(void)
             * Found a free slot. Reserve it for us.
             */
            walsnd->pid = MyProcPid;
+           walsnd->state = WALSNDSTATE_STARTUP;
            walsnd->sentPtr = InvalidXLogRecPtr;
+           walsnd->needreload = false;
            walsnd->write = InvalidXLogRecPtr;
            walsnd->flush = InvalidXLogRecPtr;
            walsnd->apply = InvalidXLogRecPtr;
            walsnd->writeLag = -1;
            walsnd->flushLag = -1;
            walsnd->applyLag = -1;
-           walsnd->state = WALSNDSTATE_STARTUP;
+           walsnd->sync_standby_priority = 0;
            walsnd->latch = &MyProc->procLatch;
            walsnd->replyTime = 0;
            SpinLockRelease(&walsnd->mutex);
@@ -3236,7 +3238,8 @@ pg_stat_get_wal_senders(PG_FUNCTION_ARGS)
    Tuplestorestate *tupstore;
    MemoryContext per_query_ctx;
    MemoryContext oldcontext;
-   List       *sync_standbys;
+   SyncRepStandbyData *sync_standbys;
+   int         num_standbys;
    int         i;
 
    /* check to see if caller supports us returning a tuplestore */
@@ -3265,11 +3268,10 @@ pg_stat_get_wal_senders(PG_FUNCTION_ARGS)
    MemoryContextSwitchTo(oldcontext);
 
    /*
-    * Get the currently active synchronous standbys.
+    * Get the currently active synchronous standbys.  This could be out of
+    * date before we're done, but we'll use the data anyway.
     */
-   LWLockAcquire(SyncRepLock, LW_SHARED);
-   sync_standbys = SyncRepGetSyncStandbys(NULL);
-   LWLockRelease(SyncRepLock);
+   num_standbys = SyncRepGetCandidateStandbys(&sync_standbys);
 
    for (i = 0; i < max_wal_senders; i++)
    {
@@ -3285,9 +3287,12 @@ pg_stat_get_wal_senders(PG_FUNCTION_ARGS)
        int         pid;
        WalSndState state;
        TimestampTz replyTime;
+       bool        is_sync_standby;
        Datum       values[PG_STAT_GET_WAL_SENDERS_COLS];
        bool        nulls[PG_STAT_GET_WAL_SENDERS_COLS];
+       int         j;
 
+       /* Collect data from shared memory */
        SpinLockAcquire(&walsnd->mutex);
        if (walsnd->pid == 0)
        {
@@ -3307,6 +3312,22 @@ pg_stat_get_wal_senders(PG_FUNCTION_ARGS)
        replyTime = walsnd->replyTime;
        SpinLockRelease(&walsnd->mutex);
 
+       /*
+        * Detect whether walsender is/was considered synchronous.  We can
+        * provide some protection against stale data by checking the PID
+        * along with walsnd_index.
+        */
+       is_sync_standby = false;
+       for (j = 0; j < num_standbys; j++)
+       {
+           if (sync_standbys[j].walsnd_index == i &&
+               sync_standbys[j].pid == pid)
+           {
+               is_sync_standby = true;
+               break;
+           }
+       }
+
        memset(nulls, 0, sizeof(nulls));
        values[0] = Int32GetDatum(pid);
 
@@ -3376,7 +3397,7 @@ pg_stat_get_wal_senders(PG_FUNCTION_ARGS)
             */
            if (priority == 0)
                values[10] = CStringGetTextDatum("async");
-           else if (list_member_int(sync_standbys, i))
+           else if (is_sync_standby)
                values[10] = SyncRepConfig->syncrep_method == SYNC_REP_PRIORITY ?
                    CStringGetTextDatum("sync") : CStringGetTextDatum("quorum");
            else
index 913a8b08ce91f15d8d770fa20f915d5aba72ac5b..e4800076f2424e29c540c9533e48503524f8c2a3 100644 (file)
 #define SYNC_REP_PRIORITY      0
 #define SYNC_REP_QUORUM        1
 
+/*
+ * SyncRepGetCandidateStandbys returns an array of these structs,
+ * one per candidate synchronous walsender.
+ */
+typedef struct SyncRepStandbyData
+{
+   /* Copies of relevant fields from WalSnd shared-memory struct */
+   pid_t       pid;
+   XLogRecPtr  write;
+   XLogRecPtr  flush;
+   XLogRecPtr  apply;
+   int         sync_standby_priority;
+   /* Index of this walsender in the WalSnd shared-memory array */
+   int         walsnd_index;
+   /* This flag indicates whether this struct is about our own process */
+   bool        is_me;
+} SyncRepStandbyData;
+
 /*
  * Struct for the configuration of synchronous replication.
  *
@@ -74,6 +92,9 @@ extern void SyncRepInitConfig(void);
 extern void SyncRepReleaseWaiters(void);
 
 /* called by wal sender and user backend */
+extern int SyncRepGetCandidateStandbys(SyncRepStandbyData **standbys);
+
+/* obsolete, do not use in new code */
 extern List *SyncRepGetSyncStandbys(bool *am_sync);
 
 /* called by checkpointer */
index 0dd6d1cf808257aa7b8de68b3a8e26fd33d22d00..99e28b2aa54cf6ed995bf99ec1c04e1247d3a094 100644 (file)
@@ -31,8 +31,7 @@ typedef enum WalSndState
 /*
  * Each walsender has a WalSnd struct in shared memory.
  *
- * This struct is protected by 'mutex', with two exceptions: one is
- * sync_standby_priority as noted below.  The other exception is that some
+ * This struct is protected by its 'mutex' spinlock field, except that some
  * members are only written by the walsender process itself, and thus that
  * process is free to read those members without holding spinlock.  pid and
  * needreload always require the spinlock to be held for all accesses.
@@ -60,7 +59,7 @@ typedef struct WalSnd
    TimeOffset  flushLag;
    TimeOffset  applyLag;
 
-   /* Protects shared variables shown above. */
+   /* Protects shared variables shown above (and sync_standby_priority). */
    slock_t     mutex;
 
    /*
@@ -71,8 +70,7 @@ typedef struct WalSnd
 
    /*
     * The priority order of the standby managed by this WALSender, as listed
-    * in synchronous_standby_names, or 0 if not-listed. Protected by
-    * SyncRepLock.
+    * in synchronous_standby_names, or 0 if not-listed.
     */
    int         sync_standby_priority;