Das hängt ein bisschen davon ab, was die Ursache ist. Wenn es zu Tearing kommt, weil die Graka die Bilder schneller liefert als der Monitor sie anzeigen kann, dann sollte das klassische VSync eigentlich gut helfen. Insofern kann man auch versuchen, das zu erzwingen, indem man so lange Details reduziert, bis die Graka halt schneller ist als der Monitor.
Kommt es zu Tearing und Rucklern, weil die Graka zu langsam ist, hilft eigentlich nur Details reduzieren oder neue Graka.
Ein Problem kann VSync werden, wenn es gerade so an der Grenze ist. Denn es wird ja immer auf einen Zweierpotenzteiler der Bildwiederholfrequenz gebremst. Liefert die Graka also z.B. 65 fps und der Monitor kann nur 60, dann bremst VSync auf 60 und alles ist gut. Kommen aber mal nur 59 fps von der Graka, dann reduziert VSync das gleich auf 30 fps. Bei 29 fps geht’s runter auf 15. Und dann springt die FPS-Rate je nach Szene z.B. zwischen 30 und 60 hin und her. Das kann dann mehr stören als konstante 30 fps. NVidia hat dazu „Adaptive VSync” eingeführt (bin mir sicher, dass AMD sowas auch hat, ich weiß nur nicht, wie die es nennen). Da wird dann bei über 60 fps VSync gemacht und bei unter 60 fps automatisch abgestellt. Mit dem Hintergedanken, dass 58 fps mit Tearing besser sind als ein Einbruch auf 30 fps ohne Tearing. Die Alternative wäre, von Anfang an ein FPS-Limit von 30 zu setzen. Läuft es halt nicht so flüssig, dafür aber ohne Tearing und Sprünge in der Bildwiederholrate.
Hängt also von vielen Faktoren ab. Unter anderem auch von den Vorlieben des Nutzers und dessen persönlicher Leidensfähigkeit (lieber Ruckler oder Tearing, reichen zur Not auch 30 fps oder müssen es unbedingt 60 sein, etc).
Kompromisse muss man aber irgendwo immer machen. Wenn es eine perfekte Lösung gäbe, gäbe es ja keinen Bedarf für FreeSync.