Mamy a, b, c, dinRR takie, że ab = 2 (c + d). Jak udowodnić, że co najmniej jedno z równań x ^ 2 + ax + c = 0; x ^ 2 + bx + d = 0 mają podwójne korzenie?

Mamy a, b, c, dinRR takie, że ab = 2 (c + d). Jak udowodnić, że co najmniej jedno z równań x ^ 2 + ax + c = 0; x ^ 2 + bx + d = 0 mają podwójne korzenie?
Anonim

Odpowiedź:

Twierdzenie jest fałszywe.

Wyjaśnienie:

Rozważmy dwa równania kwadratowe:

# x ^ 2 + ax + c = x ^ 2-5x + 6 = (x-2) (x-3) = 0 #

i

# x ^ 2 + bx + d = x ^ 2-2x-1 = (x-1-sqrt (2)) (x-1 + sqrt (2)) = 0 #

Następnie:

#ab = (-5) (- 2) = 10 = 2 (6-1) = 2 (c + d) #

Oba równania mają wyraźne prawdziwe korzenie i:

#ab = 2 (c + d) #

Tak więc twierdzenie jest fałszywe.