La regola dei segni dall'enunciato di R. Descartes (1637) alla dimostrazione di C. F. Gauss (1828)

ConclusioniLe dimostrazioni algebriche della regola, sia che riguardino il caso a radici reali o quello generale si fondano tutte su una proposizione che descrive il comportamento dei segni di un'equazione quando la si moltiplica per x − a oppure per x + a.Le prime dimostrazioni algebriche relative ad equazioni a radici reali, cioé quelle diSegner (1728),Campbell, Stübner eDe Gua, benchè trovate indipendentemente, presentano notevoli somiglianze. Per esempio tutti gli autori menzionati dimostrano laproposizione di Leibniz ricorrendo al lemma che afferma che, in un'equazione completa a radici reali, il quadrato di ogni coefficiente è maggiore del prodotto dei due coefficienti adiacenti, anche se di esso forniscono dimostrazioni diverse.Nella dimostrazione algebrica relativa al caso generale laproposizione di Leibniz è invece dimostrata direttamente. Già nella dimostrazione diSegner (1756) vengono introdotti, anche se in forma oscura e prolissa, quegli elementi che verranno poi semplificati e chiariti nelle dimostrazioni diWaring, Fourier eGauss.Il punto essenziale delle dimostrazioni analitiche, sia che riguardino il caso a radici reali o quello generale, è una proposizione che trasporta la validità del teorema dall'equazione derivata di un'equazione, all'equazione stessa. La regola viene poi dimostrata per induzione. Nelle prime dimostrazioni analitiche, cioè quelle diDe Gua, Kaestner edAepinus, gli autori fanno diretto riferimento al grafico della curva che rappresenta l'equazione. Successivamente con il consolidarsi delle conoscenze dell'analisi infinitesimale,Euler, Milner, Lagrange eRuffini omettono ogni riferimento al grafico dell'equazione.Osserviamo infine che è proprio l'applicazione dell'analisi infinitesimale alla teoria delle equazioni a suggerire aFourier una generalizzazione della regola dei segni, che condurrà successivamente al più generaleteorema di Sturm.