Рассматривается антагонистическая дифференциальная игра на конечном промежутке, в которой игроки помимо управления траекторией системы влияют также на момент завершения игры. Предполагается, что момент досрочного завершения игры является абсолютно непрерывной случайной величиной, плотность которой задается назначаемой каждым игроком ограниченной измеримой функцией времени (интенсивностью его влияния на завершение игры). Платежная функция при этом может зависеть как от момента завершения игры и положения системы в этот момент, так и от игрока-инициатора завершения игры. Для формализации стратегий применяются неупреждающие случайные процессы с непрерывными справа и имеющими предел слева траекториями. В предположении условия седловой точки в маленькой игре показано существование цены игры. С этой целью исходная игра приближается вспомогательной игрой на основе марковской цепи с непрерывным временем, зависящей от управлений и интенсивностей игроков; и на основе оптимальных в марковской игре стратегий для исходной игры предложена процедура управления со стохастическим поводырем. Показано, что при неограниченном увеличении числа точек в марковской игре такая процедура приводит к сколь угодно близкой к оптимальной стратегии в исходной игре. We consider a zero-sum differential game on a finite interval, in which the players not only control the system’s trajectory but also influence the terminal time of the game. It is assumed that the early terminal time is an absolutely continuous random variable, and its density is given by bounded measurable functions of time assigned by both players (the intensities of the influence of each player on the termination of the game). The payoff function may depend both on the terminal time of the game together with the position of the system at this time and on the player who initiates the termination. The strategies are formalized by using nonanticipating c&dl&g processes. The existence of the game value is shown under the Isaacs condition. For this, the original game is approximated by an auxiliary game based on a Markov chain with continuous time, which depends on the controls and intensities of the players. Based on the strategies optimal in this Markov game, a control procedure with a stochastic guide is proposed for the original game. It is shown that, under an unlimited increase in the number of points in the Markov game, this procedure leads to a near-optimal strategy in the original game.