博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
YbtOJ——递推算法【例题4】传球游戏
阅读量:2153 次
发布时间:2019-04-30

本文共 1545 字,大约阅读时间需要 5 分钟。

D. 【例题4】传球游戏

内存限制:256 MiB
时间限制:1000 ms
标准输入输出
题目类型:传统
评测方式:文本比较

题目描述

上体育课的时候,小蛮的老师经常带着同学们一起做游戏。这次,老师带着同学们一起做传球游戏。

游戏规则是这样的: n个同学站成一个圆圈,其中的一个同学手里拿着一个球,

当老师吹哨子时开始传球,每个同学可以把球传给自己左右的两个同学中的一个(左右任意),
当老师再次吹哨子时,传球停止,此时,拿着球没有传出去的那个同学就是败者,要给大家表演一个节目。

聪明的小蛮提出一个有趣的问题:有多少种不同的传球方法可以使得从小蛮手里开始传的球,传 m 次以后,

又回到小蛮手里。两种传球方法被视作不同的方法,当且仅当这两种方法中,接到球的同学按接球顺序组成的序列是不同的。
比如有三个同学1号,2号,3号,并假设小蛮为1号,球传了3次回到小蛮手里的方式有 1 → 3 → 2 → 1 1→3→2→1 1321 1 → 2 → 3 → 1 1→2→3→1 1231 ,共 2 种。

输入格式

一行,有两个用空格隔开的整数 。

输出格式

个整数,表示符合题意的方法数。

样例

样例输入

3 3

样例输出

2

数据范围

对于 % 100 \%100 %100 的数据满足: 3 ≤ n ≤ 30 , 1 ≤ m ≤ 30 3\leq n\leq30,1\leq m\leq30 3n301m30

题解

f [ i ] [ j ] f[i][j] f[i][j]为传了 i i i次后,到第 j j j个人的方案数。

显而易见 f [ i ] [ j ] = f [ i − 1 ] [ j − 1 ] + f [ i − 1 ] [ j + 1 ] f[i][j]=f[i-1][j-1]+f[i-1][j+1] f[i][j]=f[i1][j1]+f[i1][j+1]
因为 f [ i ] [ j ] f[i][j] f[i][j]可以由上一次传球中传到左边的人和右边的人的方案数之和转移过来。
特别的:
f [ 0 ] [ 1 ] = 1 f[0][1]=1 f[0][1]=1
f [ i ] [ 1 ] = f [ i − 1 ] [ n ] + f [ i − 1 ] [ j + 1 ] f[i][1]=f[i-1][n]+f[i-1][j+1] f[i][1]=f[i1][n]+f[i1][j+1]
f [ i ] [ n ] = f [ i − 1 ] [ n − 1 ] + f [ i − 1 ] [ 1 ] f[i][n]=f[i-1][n-1]+f[i-1][1] f[i][n]=f[i1][n1]+f[i1][1]
显然因为问题是一个环,第1个人的左边是n,第n个人的右边是1。
最后答案便是 f [ m ] [ 1 ] f[m][1] f[m][1]

代码

#include
using namespace std;long long f[100][100],n,m;int main(){
cin>>n>>m; f[0][1]=1; for(int i=1; i<=m; i++)//枚举传球次数 {
for(int j=1;j<=n;j++)//枚举传到第几个人 {
if(j==1) f[i][j]=f[i-1][n]+f[i-1][j+1]; else if(j==n) f[i][j]=f[i-1][n-1]+f[i-1][1]; else f[i][j]=f[i-1][j-1]+f[i-1][j+1]; } } cout<

转载地址:http://mhpwb.baihongyu.com/

你可能感兴趣的文章
简述极大似然估计
查看>>
用线性判别分析 LDA 降维
查看>>
用 Doc2Vec 得到文档/段落/句子的向量表达
查看>>
使聊天机器人具有个性
查看>>
使聊天机器人的对话更有营养
查看>>
一个 tflearn 情感分析小例子
查看>>
attention 机制入门
查看>>
手把手用 IntelliJ IDEA 和 SBT 创建 scala 项目
查看>>
双向 LSTM
查看>>
GAN 的 keras 实现
查看>>
AI 在 marketing 上的应用
查看>>
Logistic regression 为什么用 sigmoid ?
查看>>
Logistic Regression 为什么用极大似然函数
查看>>
SVM 的核函数选择和调参
查看>>
LightGBM 如何调参
查看>>
用 TensorFlow.js 在浏览器中训练神经网络
查看>>
cs230 深度学习 Lecture 2 编程作业: Logistic Regression with a Neural Network mindset
查看>>
梯度消失问题与如何选择激活函数
查看>>
为什么需要 Mini-batch 梯度下降,及 TensorFlow 应用举例
查看>>
为什么在优化算法中使用指数加权平均
查看>>